Disallow: /installation/ можно убрать... толку то от него...
Конечно нет, просто случайно... В принципе, после установки движка, его надо удалять.
Насчет карты у меня другой вопрос. Нужен ли он, если сайт всего из нескольких страниц, и вложенность страниц не более 2го уровня? Как я помню, он же нужен для того, чтобы робт видел структуру сайта, все страницы. А если мало страниц, зачем заморачиваться? я правильно рассуждаю?
И мнение насчет прописывания для каждого поисковика опять разошлись
Последний раз редактировалось xilgiz; 17.05.2012 в 16:49.
Как я помню, он же нужен для того, чтобы робт видел структуру сайта, все страницы. А если мало страниц, зачем заморачиваться? я правильно рассуждаю?
Google сказал, что карта сайта не нужна, и так нормально всё проиндексируется, но я думаю, лишней не будет, это ведь конкретный список страниц для индексации.
Сообщение от xilgiz
И мнение насчет прописывания для каждого поисковика опять разошлись
Если инструкции одинаковы для любых роботов, то можно оставить одну общую User-agent: * , а если для разных роботов пишете разные Crawl-delay:, или папки с картинками для определенных роботов открываете, или какие конкретные инструкции, то для каждого робота пишите нужные для него инструкции...
Обновляя тему, вопрос : Карта сайта предотвращает появление дублей? т.е. если я прописал карту сайта, то роботы будут смотреть только те страницы, которые там указаны, или еще лазить будут?
Для гугла директива host не прописывается (хотя "User-agent: *" - это не гугл). С картой сайта думаю сами разберётесь, но главное, что она должна быть в расширении xml, а то вчера обзор сайта делал, а у него вместо карты архив бекапа карты стоит :)
Важно! Не забудьте, что если вы хотите, что бы Гугл/Яша сбольшим послушанием относились к вашему robots.txt, то сайт следует добавить в вебмастер панели, и прописать в них главный домен.
Последний раз редактировалось Shihal; 30.06.2012 в 09:35. Причина: добавил важную инфу
Shihal, карты сайта бывают разные, например под instant(я видел ваше сообщение в своей теме) есть плагин, который формирует отдельную карты под видео, музыку, блоги и тд. Думаю, для других систем аналогичные тоже есть. Вопрос, насколько они помогают индексации открыт.
xilgiz, Steel, В обоих случаях роботс рабочий и в целом правильный, на приколы по поводу Disallow: /installation/ и Host: для Гугла - наплюйте, это по любому лучше чем User-agent: * Disallow: Походу - джумла генерит огромное количество дублей, мой роботс, это уже простыня из 40 пунктов - понятия не имею, каким образом ПСы находят эти страницы. Будьте готовы, что и вам придется постоянно мониторьте выдачу, на предмет выявления всякого мусора.
По поводу карты, я вообще не заморачиваюсь – более десятка сайтов, карты нет ни на одном, и на всех 100% индексация.