Робот Googlebot обнаружил чрезвычайно большое количество URL-адресов на вашем сайте

(Ответов: 4, Просмотров: 1022)
  1. Студент
    • Регистрация: 03.12.2013
    • Сообщений: 65
    • Репутация: 0
    На сайте сделали фильтр поиска товаров, спустя несколько дней в Google Вебмастер уже сообщает о проблеме:

    ----------------
    Робот Googlebot столкнулся с проблемами при сканировании вашего сайта http://motodim.com/.
    Робот Googlebot обнаружил чрезвычайно большое количество ссылок на вашем сайте. Это может свидетельствовать о проблеме, связанной со структурой URL-адресов сайта. Возможно, робот Googlebot без необходимости сканирует большое количество различных URL, указывающих на идентичное или похожее содержание, либо сканирует разделы сайта, не требующие сканирования. В результате робот Googlebot может потреблять гораздо больше ресурсов канала передачи данных, чем необходимо. Кроме того, есть вероятность, что он не сможет полностью просканировать все содержание сайта.
    Подробнее об этой проблеме
    Приводим примерный список URL-адресов с возможными проблемами. Обратите внимание, что данный список может быть неполным.
    ----------------

    Что делать? Я закрыл фильтр для индексации в robots, но это не думаю что эффективно, поскольку robots.txt это только рекомендация google боту
    Буду благодарен за советы
    • 0
  2. Студент
    • Регистрация: 11.12.2011
    • Сообщений: 63
    • Репутация: 7
    У вас пол ляма ссылок в гугле, что за cms?
    в robots с фильтром все ок, теперь только ждать когда гугл примет его к сведению.
    яндексу и прочим тоже имеет смысл прописать Disallow: /*filter
    Последний раз редактировалось DragDG; 17.08.2014 в 01:10.
    • 0
  3. Опытный Аватар для dotWizard
    • Регистрация: 29.07.2014
    • Сообщений: 463
    • Репутация: 347
    • Webmoney BL: ?
    WebMaestro, Что значит "всего лишь рекомендация"? Гугл так же как и любая другая ПС работает с этим файлом, тот же алгоритм.

    Ну а насчёт этой проблемы, так обычно такие вещи закрываются для всех ПС, тем более для яши это может быть ещё более критично, он может за дубли страниц начать выбрасывать из индекса.
    • 0
  4. Гуру
    • Регистрация: 09.10.2011
    • Сообщений: 1,813
    • Репутация: 251
    WebMaestro, метатегом ноиндекс(не путать с тегом ноиндекс от яши) закройте не нужные. Откройте вроботс если закрыли и как выкинет из индекса, тогда в нофоллоу лишние ссылки можете поставить.
    • 0
  5. Гуру Аватар для Brovik
    • Регистрация: 05.02.2012
    • Сообщений: 1,045
    • Репутация: 483
    • Webmoney BL: ?
    та же фигня была, 2 млн страниц сожрал, потому что фильтр на пхп был и генерировал кучу страниц.
    Короче разрабы облажались, а я провтыкал...Заметил через 2 месяца, закрыл в роботсе и стало все ок.
    В общем советую закрыть, иначе позиции будут падать.
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
Большое количество внешних ссылок - Solomono
Вопросы от новичков 17 15.01.2013 14:59
Большое количество контента "зарубежная недвижимость"
Копирайтинг, переводы, постинг 5 25.11.2012 21:19
Продвижение под Google на большое количество стран
Google 2 14.09.2012 18:15
Вопрос про большое количество поисковых запросов на 1й стр.
Общие вопросы поисковой оптимизации 10 31.01.2012 19:40

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры