Новое видео от Мэтта Катса, руководителя подразделения Google по борьбе с веб-спамом, посвящено вопросу Джона Мюллера из Швейцарии. Он интересовался поведением поисковой системы при создании на ресурсе огромного количества новых страниц, например, архивных записей газетного издания. Так, Мюллера интересовало, стоит ли выгружать все страницы разом или лучше разбить объем на меньшие части.
Вложение 9533
Катс заявил, что алгоритмы и роботы Google справятся с любыми объемами данных, однако появление множества страниц за короткое время, к тому же содержащих массу контента, может насторожить поисковую систему. В этом случае будет активирована ручная фильтрация, которой подвергнут страницы при индексации. Эта особенность работы Google позволяет сказать, что загружать контент лучше частями.
В качестве примера Катс привел тот же архив записей газеты. Каждая страница, естественно, будет уникальной и отличной от остальных, но такой массовый выброс информации может отрицательно сказаться на PageRank ресурса. Объединив же архивы по каким-то более частным критериям и загружая их постепенно, можно избежать излишнего внимания фильтров Google.
Также Катс отметил, что выгрузка архива целиком не приведет к исключению сайта из выдачи, однако не исключено, что ресурсом заинтересуются фильтры по борьбе с веб-спамом.
Катс рекомендует выкладывать контент на сайты постепенно
(Ответов: 5, Просмотров: 289)
- 18.04.2013 18:59Гуру


- Регистрация: 11.05.2011
- Сообщений: 2,354
- Репутация: 390
- 24.04.2013 15:48практика показала что гугл нормально ест новые сайты (порядка 5к страниц одновременно).А вот Яндекс имеет привычку очень долго не индексировать новый сайт если там будет сразу много страницКатс заявил, что алгоритмы и роботы Google справятся с любыми объемами данных, однако появление множества страниц за короткое время, к тому же содержащих массу контента, может насторожить поисковую систему
- 24.04.2013 15:59
MetalMessiah, но все таки стоит прислушатся =)
- 24.04.2013 16:23Дипломник

- Регистрация: 23.03.2013
- Сообщений: 235
- Репутация: 20
гуглу 5к страниц вообще не проблема сьесть)
- 24.04.2013 16:24
- 24.04.2013 16:38Опытный

- Регистрация: 08.03.2013
- Сообщений: 460
- Репутация: 122
Согласен.Даже практика показывает, что гугл ест нормально сайты с 20-30к страницА если мало страниц закинуть и понемного прибавлять, то тоже всё очень долго затягивается в итоге. Яндекс если начинает есть то сразу большими блоками. А вот гугл ест постепенно, каждый день прибавляется несколько сот страниц и более.вот Яндекс имеет привычку очень долго не индексировать новый сайт если там будет сразу много страниц
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Стоит ли выкладывать на сайт статьи по которым 0 запросов? | Общие вопросы поисковой оптимизации | 16 | 09.11.2011 13:13 |
Постепенно выбрасывает страницы из индекса | 7 | 23.03.2011 12:14 |




Конечно, может и указанный ПыР не получите, но он на фиг не нужен). Тут важно последнее: