Яша клеит страницы с дублями (долго и неохотно), но не встречал такого, чтобы он исключал из индекса страницу с дублированным (в пределах одного сайта) контентом. Гугл вообще делает склеивание незаметно (и много быстрее), но также не исключает из индекса.
Здравствуйте. Я хочу удалить страницы дубли с своего сайта и прописать главное зеркало. я написала в роботсе вот что: User-Agent: * Disallow: Host: ajka.ru
User-Agent: * Disallow: /cgi-bin/ Disallow: /http://www.ajka.ru/product.php?id_product=37/http://www.ajka.ru/product.php?id_product=36/http://www.ajka.ru/product.php?id_product=42/ (вставила ссылки на три страницы дубли) все ли правильно я сделала?
Пожалуйста, только в следующий раз для высказывания благодарностей используйте функции форума, они позволяют сказать спасибо, чтобы не флудить в теме :)
Одни дубли, сами по себе, не влекут за собой фильтр, но по совокупности имеют одну из решающих ролей. Для блогов в идеале надо оставить основную страницу на которой транслируются все новости и страницы категорий, все остальное, то есть теги, архивы, самое читаемое и тп закрыть от индекса, так как это все элементы юзабительности и предназначены для посетителей, а не для поисковиков. И сами посты не должны находится одновременно в 3-7 категориях,если у вас так, то закрывайте и категории от индекса, но откройте архивы.
Лучшая адалт партнерка, 130$ за 1к уников. Pop-under, 7% бонус от заработка постоянным партнерам