Здравствуйте. Сделал интернет магазин на WP, но не устраивают стандартные дизайнерские стили магазина. Пришлось все страницы с их содержимым продублировать на другие адреса с нормальным дизайном с помощью шоткодов. По первоначальным адресам убрать возможности нет(http://mysite.ru/shop/). Насколько вредно иметь дубли лежащие на одном сайте при продвижении? Данные дубли которые надо скрыть от поисковика, чтобы не попасть под фильтры находятся по адресу http://mysite.ru/shop/ (Обычным посетителям доступ надо оставить). Я так понимаю это делается через .htaccess или robots.txt? Подскажите плиз как это делается, ну или другие варианты решения этой проблемы?
Последний раз редактировалось kodzero; 09.03.2013 в 19:55.
SkVito, Гугл в последнее время конечно жёстко игнорит robots - это факт. Но в основном это происходит тогда, когда страницы изначально небыли закрыты роботсом, и вледелец сайта спохватился когда уже нашёл "лишнее" в поисковой выдаче. Вот тогда уже действительно Гуглу наплевать на роботс - он страницы не удаляет по несколько месяцев.
Роботс уже давно игнорируется гуглом, через хитач не всегда хорошо, в гугл вебмастере можно ещё покопаться и попросить гугл не индексировать сайт, но тоже не вариант))) тогда хитач, но клоакинг вполне может обнаружится, правда 50/50