На сайте сделали фильтр поиска товаров, спустя несколько дней в Google Вебмастер уже сообщает о проблеме:
----------------
Робот Googlebot столкнулся с проблемами при сканировании вашего сайта http://motodim.com/.
Робот Googlebot обнаружил чрезвычайно большое количество ссылок на вашем сайте. Это может свидетельствовать о проблеме, связанной со структурой URL-адресов сайта. Возможно, робот Googlebot без необходимости сканирует большое количество различных URL, указывающих на идентичное или похожее содержание, либо сканирует разделы сайта, не требующие сканирования. В результате робот Googlebot может потреблять гораздо больше ресурсов канала передачи данных, чем необходимо. Кроме того, есть вероятность, что он не сможет полностью просканировать все содержание сайта.
Подробнее об этой проблеме
Приводим примерный список URL-адресов с возможными проблемами. Обратите внимание, что данный список может быть неполным.
----------------
Что делать? Я закрыл фильтр для индексации в robots, но это не думаю что эффективно, поскольку robots.txt это только рекомендация google боту
Буду благодарен за советы
Робот Googlebot обнаружил чрезвычайно большое количество URL-адресов на вашем сайте
(Ответов: 4, Просмотров: 1022)
- 17.08.2014 00:40
- Регистрация: 03.12.2013
- Сообщений: 65
- Репутация: 0
- 17.08.2014 00:57
- Регистрация: 11.12.2011
- Сообщений: 63
- Репутация: 7
У вас пол ляма ссылок в гугле, что за cms?
в robots с фильтром все ок, теперь только ждать когда гугл примет его к сведению.
яндексу и прочим тоже имеет смысл прописать Disallow: /*filterПоследний раз редактировалось DragDG; 17.08.2014 в 01:10.
- 17.08.2014 07:02
WebMaestro, Что значит "всего лишь рекомендация"? Гугл так же как и любая другая ПС работает с этим файлом, тот же алгоритм.
Ну а насчёт этой проблемы, так обычно такие вещи закрываются для всех ПС, тем более для яши это может быть ещё более критично, он может за дубли страниц начать выбрасывать из индекса. - 18.08.2014 20:13
- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
WebMaestro, метатегом ноиндекс(не путать с тегом ноиндекс от яши) закройте не нужные. Откройте вроботс если закрыли и как выкинет из индекса, тогда в нофоллоу лишние ссылки можете поставить.
- 18.08.2014 20:36
та же фигня была, 2 млн страниц сожрал, потому что фильтр на пхп был и генерировал кучу страниц.
Короче разрабы облажались, а я провтыкал...Заметил через 2 месяца, закрыл в роботсе и стало все ок.
В общем советую закрыть, иначе позиции будут падать.
Тэги топика:
Похожие темы
Темы | Раздел | Ответов | Последний пост |
---|---|---|---|
Большое количество внешних ссылок - Solomono | Вопросы от новичков | 17 | 15.01.2013 14:59 |
Большое количество контента "зарубежная недвижимость" | Копирайтинг, переводы, постинг | 5 | 25.11.2012 21:19 |
Продвижение под Google на большое количество стран | 2 | 14.09.2012 18:15 | |
Вопрос про большое количество поисковых запросов на 1й стр. | Общие вопросы поисковой оптимизации | 10 | 31.01.2012 19:40 |