• Катс рекомендует выкладывать контент на сайты постепенно

    lis-enka Опубликовано 18.04.2013 17:57
    Новое видео от Мэтта Катса, руководителя подразделения Google по борьбе с веб-спамом, посвящено вопросу Джона Мюллера из Швейцарии. Он интересовался поведением поисковой системы при создании на ресурсе огромного количества новых страниц, например, архивных записей газетного издания. Так, Мюллера интересовало, стоит ли выгружать все страницы разом или лучше разбить объем на меньшие части.



    Катс заявил, что алгоритмы и роботы Google справятся с любыми объемами данных, однако появление множества страниц за короткое время, к тому же содержащих массу контента, может насторожить поисковую систему. В этом случае будет активирована ручная фильтрация, которой подвергнут страницы при индексации. Эта особенность работы Google позволяет сказать, что загружать контент лучше частями.

    В качестве примера Катс привел тот же архив записей газеты. Каждая страница, естественно, будет уникальной и отличной от остальных, но такой массовый выброс информации может отрицательно сказаться на PageRank ресурса. Объединив же архивы по каким-то более частным критериям и загружая их постепенно, можно избежать излишнего внимания фильтров Google.

    Также Катс отметил, что выгрузка архива целиком не приведет к исключению сайта из выдачи, однако не исключено, что ресурсом заинтересуются фильтры по борьбе с веб-спамом.
    Комментарии 5 Комментарии
    1. Аватар для MetalMessiah
      Катс заявил, что алгоритмы и роботы Google справятся с любыми объемами данных, однако появление множества страниц за короткое время, к тому же содержащих массу контента, может насторожить поисковую систему
      практика показала что гугл нормально ест новые сайты (порядка 5к страниц одновременно).А вот Яндекс имеет привычку очень долго не индексировать новый сайт если там будет сразу много страниц
      MetalMessiah -
    1. Аватар для kvins
      MetalMessiah, но все таки стоит прислушатся =)
      kvins -
    1. Аватар для psychomonkey
      гуглу 5к страниц вообще не проблема сьесть)
      psychomonkey -
    1. Аватар для liveman
      Цитата Сообщение от MetalMessiah Посмотреть сообщение
      практика показала что гугл нормально ест новые сайты (порядка 5к страниц одновременно).
      Даже практика показывает, что гугл ест нормально сайты с 20-30к страниц Конечно, может и указанный ПыР не получите, но он на фиг не нужен). Тут важно последнее:

      Цитата Сообщение от lis-enka Посмотреть сообщение
      Также Катс отметил, что выгрузка архива целиком не приведет к исключению сайта из выдачи, однако не исключено, что ресурсом заинтересуются фильтры по борьбе с веб-спамом.
      То есть при фильтре нулевика просто скидываем контент на новый домен и радуемся жизни
      liveman -
    1. Аватар для WebPrib
      Даже практика показывает, что гугл ест нормально сайты с 20-30к страниц
      Согласен.
      вот Яндекс имеет привычку очень долго не индексировать новый сайт если там будет сразу много страниц
      А если мало страниц закинуть и понемного прибавлять, то тоже всё очень долго затягивается в итоге. Яндекс если начинает есть то сразу большими блоками. А вот гугл ест постепенно, каждый день прибавляется несколько сот страниц и более.
      WebPrib -
    Войдите или зарегистрируйтесь, если Вы хотите оценить или прокомментировать статью

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Последние комментарии