Добрый вечер! Скажите, пожалуйста, как лучше поступить: есть сайт с уникальным контентом, но отдельные страницы в категории - 100% дубль, его переписать нельзя, да и никчему. Скажите, что сделать: закрыть от индексации <noindex> + в роботс.тхт – поможет? Или вообще лучше избавиться от этих страниц удалить?
---------- Сообщение добавлено 17:36 ---------- Предыдущее 16:44 ----------
Ayk, В бытие такие страницы удаляют, а не закрывают от индексации. Тут я уже не смогу точно ответить, так как не сталкивался с этим. Но думаю это лучше чем оставить клонов жить в совместимости с оригиналом. Последует пессимизация или что более вероятнее - фильтры.
насколько я понял тут тема не про дубли, а про страницы с уник.контентом и не уник. если неуникальных статей не так много то стоит оставить. фильтры на это не наложат и на ранжирование не повлияет. можешь для перестраховки после неуник. статей оставить ссылку на оригинал. тогда точно все в порядке будет
Что предпочтительней? Я пользуюсь редиректом или закрываю в роботсе. Так проще и быстрее. Хотя лучше было бы использовать мета нейм <meta name="robots" content="noindex, follow"/>, - эта директива жестче, чем роботс, и потом, ссылки, которые на странице-неунике продолжают работать, т.е. передавать динамический и анкорный вес.