Конечно нет, просто случайно... В принципе, после установки движка, его надо удалять.
Насчет карты у меня другой вопрос.
Нужен ли он, если сайт всего из нескольких страниц, и вложенность страниц не более 2го уровня?
Как я помню, он же нужен для того, чтобы робт видел структуру сайта, все страницы. А если мало страниц, зачем заморачиваться? я правильно рассуждаю?
И мнение насчет прописывания для каждого поисковика опять разошлись![]()
- 17.05.2012 16:46Гуру


- Регистрация: 24.04.2011
- Сообщений: 801
- Репутация: 126
Последний раз редактировалось xilgiz; 17.05.2012 в 16:49.
- 17.05.2012 17:30
Google сказал, что карта сайта не нужна, и так нормально всё проиндексируется, но я думаю, лишней не будет, это ведь конкретный список страниц для индексации.
Если инструкции одинаковы для любых роботов, то можно оставить одну общую User-agent: * , а если для разных роботов пишете разные Crawl-delay:, или папки с картинками для определенных роботов открываете, или какие конкретные инструкции, то для каждого робота пишите нужные для него инструкции... - 28.06.2012 22:12Гуру


- Регистрация: 24.04.2011
- Сообщений: 801
- Репутация: 126
Обновляя тему, вопрос :
Карта сайта предотвращает появление дублей?
т.е. если я прописал карту сайта, то роботы будут смотреть только те страницы, которые там указаны, или еще лазить будут? - 29.06.2012 00:11Banned

- Регистрация: 16.12.2011
- Сообщений: 142
- Репутация: 16
xilgiz, Нет. Карта сайта по сути это список страниц, которые отдаются роботу, чтобы он их не забыл проиндексировать.
P.S. Иногда они забывают....
- 29.06.2012 16:40
Тоже придерживаюсь такого варианта:
User-Agent: *
То, что гугл не знает, будет просто игнорировать, то, что не знает Яша, тоже будет игнорироваться. И безо всяких санкций.
Нагруженный роботс - это гемор. ИМХО - 29.06.2012 16:48User-Agent: * (ето для всех, но делаетса для google)User-Agent: *
Disallow: /1/*
User-Agent: Yandex
Disallow: /1/*
Host: webmasters.ru
Disallow: что именно надо блокивароть (заривать)
User-Agent: Yandex (ето яндекс)
Disallow: что именно надо блокивароть (заривать)
Host: ваш сайт - 30.06.2012 09:34
xilgiz, Ну и начитаетесь же вы советов :) Вот ссыль на яш-помощь
Вот ваш robots.txt:
PHP код:Для гугла директива host не прописывается (хотя "User-agent: *" - это не гугл). С картой сайта думаю сами разберётесь, но главное, что она должна быть в расширении xml, а то вчера обзор сайта делал, а у него вместо карты архив бекапа карты стоит :)User-agent: Yandex
Disallow: /index.php?*
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /includes/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Host: _site.ru
User-agent: *
Disallow: /index.php?*
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /includes/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Важно! Не забудьте, что если вы хотите, что бы Гугл/Яша сбольшим послушанием относились к вашему robots.txt, то сайт следует добавить в вебмастер панели, и прописать в них главный домен.Последний раз редактировалось Shihal; 30.06.2012 в 09:35. Причина: добавил важную инфу
- 30.06.2012 12:00Banned

- Регистрация: 20.02.2012
- Сообщений: 140
- Репутация: 14
Shihal, карты сайта бывают разные, например под instant(я видел ваше сообщение в своей теме) есть плагин, который формирует отдельную карты под видео, музыку, блоги и тд. Думаю, для других систем аналогичные тоже есть. Вопрос, насколько они помогают индексации открыт.
- 30.06.2012 14:39
xilgiz,
Steel,
В обоих случаях роботс рабочий и в целом правильный, на приколы по поводу Disallow: /installation/ и Host: для Гугла - наплюйте, это по любому лучше чем User-agent: * Disallow:
Походу - джумла генерит огромное количество дублей, мой роботс, это уже простыня из 40 пунктов - понятия не имею, каким образом ПСы находят эти страницы.
Будьте готовы, что и вам придется постоянно мониторьте выдачу, на предмет выявления всякого мусора.
По поводу карты, я вообще не заморачиваюсь – более десятка сайтов, карты нет ни на одном, и на всех 100% индексация. - 03.07.2012 12:46Banned

- Регистрация: 19.12.2011
- Сообщений: 39
- Репутация: 0
Многин блогеры хотят снять все временные ссылки, кто уже снял, заметил, что позиции начали немного восстанавливаться. Информация пока не подтверждена.
Тэги топика:
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
ROBOTS в DLE. | DLE | 4 | 10.05.2012 12:52 |
FAQ по robots.txt | Дайджест блогосферы | 12 | 12.02.2012 20:06 |
Robots.txt | Обучающие статьи | 12 | 30.06.2011 10:29 |
robots.txt | Вопросы от новичков | 3 | 18.03.2011 15:03 |
robots.txt | Прочее | 0 | 18.03.2011 10:44 |





