Ликиликс

  сайтостроение программирование

  

Повысить индексацию сайта (часть 2)


Как быстро проиндексировать сайт.

В первой части этой статьи мы разбирались в каких сервисах Гугла и Яндекса нужно зарегистрироваться чтобы поисковики чаще заходили на ваш сайт . В этой статье будет рассказано как заставить поисковики задержаться на сайте и проиндексировать больше страниц , об этом совсем немножко было сказано в первой статье , а именно это размещение тематических ссылок по теме странице например как внизу этой страницы у меня , но нив каком случае не должно быть ссылок на другие темы и соответственно на тех страницах тоже должны быть эти ссылки.
Сделать свои станицы ошибок через .htaccess читать или скачать полностью настроенный.
Иногда случается так что ссылки на сайтах устаревают , страницы переименовываются или удаляются в итоге при заходе по таким ссылкам выходят ошибки , многие хостинги и мой не исключение страница ошибки стандартная и предоставляется самим хостингом jino соответственно открывается она не по моему адресу www.likiliks.ru/404.html, а по адресу хостинга www.jino.ru/404.html это значит если произойдет какая-нибудь ошибка то поисковая машина сразу уйдёт с вашего сайта.
Для этого нужно сделать свои страницы ошибок , если вы не знаете как сделать станицу ошибок через .htaccess то создайте текстовый документ и внесите в него следующие записи (каждую с новой строки) ErrorDocument 500 /500.html и ErrorDocument 404 /404.html затем сохраните без имени сменив формат с txt на .htaccess чтобы было именно так как приведено в примере тоесть (точка htaccess) если у вас не получилось скачайте мой скачать , затем этот файл нужно загрузить в корень сайта и естественно туда же страницы 404.html и 500.html.
На своих страницахошибок сделайте ссылки на свои страницы сайта или просто одну ссылку на главную страницу , теперь вы знаете как сделать свои страницы ошибок на сайте или хостинге.
Robots.txt читать или скачать полностью настроенный.
Теперь давайте разберёмся с файлом robots.txt который просто необходим любому сайту иначе поисковики будут неохотно шарить ваш сайт. Как правильно сделать файл robots.txt? для этого создайте текстовый документ под именем robots.txt и добавьте в него следующие записи (каждая запись с новой строки) User-agent: *- даёт возможность любому поисковику зайти на ваш сайт и проиндексировать его , Disallow: /имя_папки/-запрещает индексировать определённую папку на сайте , Disallow: страница.html - запрещает индексацию определённой станицы . И вот вам ещё пару советов по составлению файла robots.txt , если на страницах сайта слишком много ссылок (более 10) в таком случае на поискового робота будет идти большая нагрузка , а на хостинг ещё больше и он просто на просто может слинять с сайта для этого чтобы её снизить и давать отдохнуть ему для этого пропишем в файле robots.txt ещё одну команду Crawl-delay: 20 это даст опять же поисковику задержаться на сайте делая паузу в 20 секунд прежде чем перейти на другую страницу. Crawl-delay: 2 '- этот параметр заставит поискового робота вернуться на ваш сайт через 2 дня . Ещё осталось навести вторую волну индексации сайта поисковиком )) пишем ещё одну команду Host: www.ваш-сайт.ru- это укажет зеркало вашего сайта , то время пока будет проверятся зеркало сайта в индекс попадёт в два раза больше страниц тоесть www.ваш-сайт.ru и ваш-сайт.ru но это временное явление только на время проверки зеркала сайта.
Если вам что то не понятно скачайте уже готовый но не забудьте там прописать адрес своего сайта
Проверьте наличие 3-го выпуска статьи как увеличить индексацию сайта ,в ней будем автоматически определять битые ссылки и вытеснять конкурентов.


 

Подпишитесь на новые статьи через twitter

 

 
Copyright © My Company 2009-2013      обратная связькарта сайта