На одном из блогов увидел рекомендацию закрыть от индексации непостоянные элементы на главной странице. С одной стороны это действительно разумно, ведь таким образом мы избавляемся от дублей контента сайта в индексе. С другой же стороны, частое обновление морды позитивно сказывается на сайте, а автор рекомендует закрыть индексацию этих изменений. Вот цитата:
Код:
...
Если же какое-то содержание меняется настолько часто, что никакая поисковая система за ним не уследит (например, главная страница на сайте новостей) — настройте веб-сервер таким образом, чтобы вообще запретить поисковым системам индексировать непостоянные элементы на этой странице.
...
Что Вы скажете о разумности такого поступка? Я такой совет впервые вижу и не знаю как быть. И как вообще такой способ оптимизации реализовать, чтобы при этом не "зарубить" проход ПС на внутренние страницы с новыми текстами
Не надо ничего закрывать. Зачем? Там ведь нормальный контент, который ссылается на свежие статьи. Зачем его закрывать? Не будут успевать поисковики? Если так быстро меняется сайт, то поселится там быстроробот, и будет всё успевать...
dezfor, как видим Яндекс уже проиндексировал твой пост всего 35 минут. И при этом это не главная страница сайта. Так что иногда ПС очень быстро все индексируют. Смысла закрывать информацию не вижу.
Нужна консультация эндокринолога и ангиохирурга. Linkum
dezfor, Варезник для вебмастеров разве может быть компетентным источником информации. Как уже подсказали выше, наоборот чем чаще обновляется контент на странице, тем лучше.
Спасибо за ответы. Придерживаюсь аналогичной позиции по этому вопросу. Но как увидел вчера этот совет - впал в недоумение и решил спросить для перестраховки :)
Я наоборот таким образом выпавшие из индекса страницы обратно загонял. Сделал категорию, в которую их включил, и повесил блок рандомных статей из этой категории на главную. Залетели на ура.