Как закрыть полностью от поисковиков каталог и все что глубже http://mysite.ru/catalog/

(Ответов: 5, Просмотров: 690)
  1. Дипломник Аватар для kodzero
    • Регистрация: 28.01.2013
    • Сообщений: 247
    • Репутация: 16
    Здравствуйте.
    Сделал интернет магазин на WP, но не устраивают стандартные дизайнерские стили магазина.
    Пришлось все страницы с их содержимым продублировать на другие адреса с нормальным дизайном с помощью шоткодов. По первоначальным адресам убрать возможности нет(http://mysite.ru/shop/).
    Насколько вредно иметь дубли лежащие на одном сайте при продвижении?
    Данные дубли которые надо скрыть от поисковика, чтобы не попасть под фильтры находятся по адресу http://mysite.ru/shop/ (Обычным посетителям доступ надо оставить).
    Я так понимаю это делается через .htaccess или robots.txt?
    Подскажите плиз как это делается, ну или другие варианты решения этой проблемы?
    Последний раз редактировалось kodzero; 09.03.2013 в 19:55.
    • 0
  2. Гуру Аватар для zatvorius
    • Регистрация: 04.08.2010
    • Сообщений: 509
    • Репутация: 212
    • Webmoney BL: ?
    Приветствую, чрез Robots.txt
    Disallow: /shop/*
    Качественное наполнение Ваших новостных сайтов тема на webmasters.
    • 1

    Спасибо сказали:

    kodzero(09.03.2013),
  3. Опытный Аватар для madcap
    • Регистрация: 30.01.2013
    • Сообщений: 312
    • Репутация: 45
    • Webmoney BL: ?
    Только роботсом закрывать.
    p.s. А если в .htaccess закрыть часть информации для роботов, и открыть её для людей - то могут быть санкции за клоакинг.
    • 1

    Спасибо сказали:

    kodzero(09.03.2013),
  4. Студент Аватар для SkVito
    • Регистрация: 06.03.2013
    • Сообщений: 96
    • Репутация: 37
    • Webmoney BL: ?
    Яндекс не будет индексировать то, что в robots, а google может, поэтому .htaccess
    • 1

    Спасибо сказали:

    kodzero(10.03.2013),
  5. Опытный Аватар для madcap
    • Регистрация: 30.01.2013
    • Сообщений: 312
    • Репутация: 45
    • Webmoney BL: ?
    SkVito, Гугл в последнее время конечно жёстко игнорит robots - это факт. Но в основном это происходит тогда, когда страницы изначально небыли закрыты роботсом, и вледелец сайта спохватился когда уже нашёл "лишнее" в поисковой выдаче. Вот тогда уже действительно Гуглу наплевать на роботс - он страницы не удаляет по несколько месяцев.
    • 1

    Спасибо сказали:

    kodzero(10.03.2013),
  6. Гуру Аватар для Odhost
    • Регистрация: 03.06.2012
    • Сообщений: 1,781
    • Записей в дневнике: 2
    • Репутация: 1137
    • Webmoney BL: ?
    Роботс уже давно игнорируется гуглом, через хитач не всегда хорошо, в гугл вебмастере можно ещё покопаться и попросить гугл не индексировать сайт, но тоже не вариант))) тогда хитач, но клоакинг вполне может обнаружится, правда 50/50
    • 1

    Спасибо сказали:

    kodzero(10.03.2013),

Похожие темы

Темы Раздел Ответов Последний пост
БИТРИКС catalog.element и поддержка ЧПУ
Web программирование 6 17.11.2012 23:06
Не полностью индексируется сайт
Поисковые системы 8 02.09.2012 00:14
Кнопка читать полностью на текущей странице
Joomla 5 22.05.2012 11:48
Каталог Google ODP и каталог DMOZ
Google 31 23.07.2011 21:31
Как закрыть в комментах ссылки на сайт от индексации поисковиков
Блоги 15 24.09.2010 23:32

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры