Код:Вот robots.txt экспериментального сайта, находится он на ucoze, так как сайт экспериментальный и выделять ему место на хостинге мне не хочется. Как видите, он немного обрезан, так как публиковать хост и сайтмап мне не требуется.User-agent: * Disallow: /a/ Disallow: /stat/ Disallow: /index/1 Disallow: /index/2 Disallow: /index/3 Disallow: /index/5 Disallow: /index/7 Disallow: /index/8 Disallow: /index/9 Disallow: /panel/ Disallow: /admin/ Disallow: /secure/ Disallow: /informer/ Disallow: /search Disallow: /shop/order/ Disallow: /news/1* Disallow: /news/2* Disallow: /news/3* Disallow: /news/4* Disallow: /news/5* Disallow: /news/6* Disallow: /news/7* Disallow: /news/8* Disallow: /news/9* Disallow: /file/ Disallow: /publ/0-*
Проблема в следующем, в яндексе запрещенные каталоги и адреса не индексируются, но в поиске Google в индексе крепко держатся некоторые странички из этих каталогов, особенно из /secure/, хотя, по сути, от индекса они закрыты. Может быть кто-нибудь сталкивался с подобной проблемой на данном "движке", написание отдельного блока под Гугл тоже не спасает..
- 13.10.2013 17:14
- 13.10.2013 17:46
Как долго они в гугле держаться? Может они в соплях? В сниппете не написано "Описание закрыто в robots.txt"?
- 13.10.2013 18:06Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
klassman, роботся для гугла управляет сканированием, а не индксированием. Мысль понятна?
- 13.10.2013 18:25
3s777, Описание веб-страницы недоступно из-за ограничений в файле robots.txt, просто не особо я с этим движком дружу)
Последний раз редактировалось klassman; 13.10.2013 в 18:29.
- 25.10.2013 20:26Новичок

- Регистрация: 23.10.2013
- Сообщений: 8
- Репутация: 1
"Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс." - https://support.google.com/webmaster...r/156449?hl=ru
Отправь в панели вебмастера запрос на удаления из выдачи этих страниц. Однако, если на данные страницы ведут внешние ссылки, есть вероятность, что они снова попадут в индекс.
В таком случае можешь прописать rel="canonical" для этих страниц - https://support.google.com/webmaster...r/139394?hl=ru - 27.10.2013 03:48Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
- 27.10.2013 09:14
pyramida, как я по-вашему закрою от индексации определенную капчу?))
- 27.10.2013 14:48Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
klassman, уточните урл страниц?
- 27.10.2013 15:48
- 27.10.2013 23:04Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
genjnat, читаем
-----
Чтобы полностью исключить вероятность появления контента страницы в индексе Google, даже если на нее ссылаются другие сайты, используйте метатег noindex или x-robots-tag. По мере сканирования страниц, робот Googlebot обнаружит метатег noindex и не станет отображать страницу в индексе. HTTP-заголовок x-robots-tag рекомендуется использовать, чтобы исключить из индекса файлы, формат которых отличается от HTML (например, изображения или другие типы документов).
------
Пруфа хватает, на гугле форуме и серче.
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Похожие товары в e-Commerce. Кто сталкивался? | WordPress | 3 | 30.08.2013 12:52 |
Кто сталкивался с установкой видеонаблюдения? | Оффтоп и свободные темы | 7 | 23.05.2013 15:27 |
Вирус на сайте - Troj/ExpJS-IE. Сталкивался кто-нибудь? | Консультации по безопасности | 4 | 27.03.2013 14:30 |
Кто сталкивался с этим компонентом? | Web программирование | 1 | 01.12.2011 21:28 |
Капча на wordstat.yandex. Кто сталкивался? | Прочее | 12 | 19.07.2011 22:51 |






