Гугл индексирует страницы, запрещенные в robot.txt - Webmasters.ru - RSS
http://webmasters.ru/forum/showthread.php?t=33135
SEO форум вебмастеров - Поисковые системы, оптимизация, раскрутка сайта, оптимизация и продвижение сайта в поисковых системах1743524158Elesite CMS60http://webmasters.ru/forum/images/wm/misc/rss.pngSEO форум вебмастеров Webmasters.ru
http://webmasters.ru/forum
Гугл индексирует страницы, запрещенные в robot.txt by matador2011
http://webmasters.ru/forum/showpost.php?p=327549
Fri, 31 Aug 2012 15:36:16 GMTвот что записано в robot.txt:
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: */feed$
Disallow: */trackback$
Disallow: */comments$
Disallow: /tag/
Disallow: /category/*/*
Disallow: /*?
Disallow: /*?*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: */feed$
Disallow: */trackback$
Disallow: */comments$
Disallow: /tag/
Disallow: /category/*/*
Disallow: /*?
Disallow: /*?*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Host:********.ru
Sitemap: http://********.ru/sitemap.xml
естественно вместо звездочек сайт...
Так вот в яндексе 58 страниц в индексе а у гугла 1180, причем в гугле есть страницы с такими вот адресами:
http://********.ru/wp-content/plugins/wp-notcaptcha/lib/notcaptcha.php?i=2&r=1344531102
http://********.ru/wp-content/plugins/wp-notcaptcha/lib/notcaptcha.php?i=2&r=1343944030
как мне от такого добра избавится??Гугл индексирует страницы, запрещенные в robot.txt by Dukhovnik
http://webmasters.ru/forum/showpost.php?p=327550
Fri, 31 Aug 2012 15:40:54 GMTа это вы смотрите страницы которые не под фильтром или ВСЕ страницы, которые есть в гугл?Гугл индексирует страницы, запрещенные в robot.txt by 24list
http://webmasters.ru/forum/showpost.php?p=327559
Fri, 31 Aug 2012 16:07:36 GMTUser-agent: * или удалите второй абзац и все.
Сейчас у вас стоит запрет на индексирования только яндексомГугл индексирует страницы, запрещенные в robot.txt by matador2011
http://webmasters.ru/forum/showpost.php?p=327562
Fri, 31 Aug 2012 16:20:13 GMTDukhovnik, вроде как все страницы!
---------- Сообщение добавлено 19:20 ---------- Предыдущее 19:19 ----------
24list,разве строчка
User-agent: *
не означает что последующие за ней инструкции действительны для роботов всех поисковиков, включая и гугл???Гугл индексирует страницы, запрещенные в robot.txt by 24list
http://webmasters.ru/forum/showpost.php?p=327566
Fri, 31 Aug 2012 16:23:20 GMTда верно, но в следующем абзаце вы указываете инструкции только для Yandex, и предыдущие теряют всякий смыслГугл индексирует страницы, запрещенные в robot.txt by Ilich
http://webmasters.ru/forum/showpost.php?p=327576
Fri, 31 Aug 2012 16:43:41 GMT24list, почему предыдущие инструкции теряют смысл?
По теме, инструкции роботс - это не указание роботу, а лишь рекомендация. т.е. робот всё-равно может ходить по запрещённым страницам. другое дело, что он не включает их в индекс. почему у вас включил, понятия не имею. Единственный вариант, что робот проиндексировал эти страницы до того как вы написали этот роботс тхт. Если так, то эти страницы скоро вылетят из индекса, если не так...то понятия не имею. Подождём более продвинутых комментаторов)Гугл индексирует страницы, запрещенные в robot.txt by idimka
http://webmasters.ru/forum/showpost.php?p=327889
Sat, 01 Sep 2012 17:17:56 GMTДа гугл вобще офигел в этом плане, на двух моих старых проектах такое было, помогло добавления ноуиндекса в метаописаниях страниц, а robots.txt гугл игнорировал по-полной...Гугл индексирует страницы, запрещенные в robot.txt by matador2011
http://webmasters.ru/forum/showpost.php?p=328197
Sun, 02 Sep 2012 16:41:09 GMTкстати по запросу site:http://*****.ru
Выдает Результатов: примерно 1 180 (0,10 сек.)
Причем еще вот что пишет:
Чтобы показать наиболее значимые результаты, мы опустили некоторые, очень похожие на 35 уже показанных.
Если вы хотите, можно повторить поиск, включив опущенные результаты.
Может забить на это все?? или все же добиться исключения не нужных страниц??Гугл индексирует страницы, запрещенные в robot.txt by redapp
http://webmasters.ru/forum/showpost.php?p=328208
Sun, 02 Sep 2012 17:15:43 GMTКстати, та же проблема - если искать гуглом по "site: *****.ru", то выдает 2500 страниц, из которых 2400 - это сопли вида "*****.ru/категория/запись.htm?replytocom=165" или с фидом на конце и при этом в самой выдаче такие страницы помечены как "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."
Черт, дак как их тогда удалить-то из выдачи вобще?Гугл индексирует страницы, запрещенные в robot.txt by pyramida
http://webmasters.ru/forum/showpost.php?p=328222
Sun, 02 Sep 2012 17:55:56 GMTПричем еще вот что пишет: Чтобы показать наиболее значимые результаты, мы опустили некоторые, очень похожие на 35 уже показанных.
гугле посчитал что остальное дубликаты.
---------- Сообщение добавлено 23:25 ---------- Предыдущее 23:25 ----------
redapp, в инструментах ВМТ есть какие параметры у страницы не учитывать.Гугл индексирует страницы, запрещенные в robot.txt by lnchkk
http://webmasters.ru/forum/showpost.php?p=328312
Mon, 03 Sep 2012 04:17:49 GMTвот что записано в robot.txt:
если у вас в корневой директории этот файл с указанием запрещенных к индексации страниц называется именно robot.txt , то срочно его переименовывайте в robots.txt ! поскольку другие написания названия файла (robot.txt, Robots.txt) роботы не видятГугл индексирует страницы, запрещенные в robot.txt by Ripro
http://webmasters.ru/forum/showpost.php?p=328663
Tue, 04 Sep 2012 07:04:33 GMTАналогично, в индексе и закрытое в robots, и накрытое в noindex в коде страницы. Гугл сам решает что вносить в индекс, что не вносить. Не индексировать не более чем рекомендация. При чем в выдаче может быть заголовок закрытой страницы, а в сниппете "закрыто в robots.txt"