Вопрос о закрытии в robots.txt

(Ответов: 4, Просмотров: 421)
  1. Дипломник Аватар для svetocopy
    • Регистрация: 31.03.2013
    • Сообщений: 119
    • Репутация: 19
    • Webmoney BL: ?
    Здравствуйте. Есть сайт на котором много дублей страниц.
    Нужно оставить в индексе такие страницы
    блабла.com/hateke-takashi-hd-desktop-wallpaper.html
    А убрать
    блабла.com/hateke-takashi-hd-desktop-wallpaper.html/hateke-takashi-hd-desktop-wallpaper
    Возможно это сделать в с помощью манипуляций в роботсе?
    • 0
  2. Дипломник Аватар для Dezm
    • Регистрация: 30.04.2010
    • Сообщений: 156
    • Репутация: 46
    лучше сделать 301 редирект с блабла.com/hateke-takashi-hd-desktop-wallpaper.html/hateke-takashi-hd-desktop-wallpaper на блабла.com/hateke-takashi-hd-desktop-wallpaper.html
    • 1

    Спасибо сказали:

    svetocopy(18.03.2014),
  3. Опытный
    • Регистрация: 10.11.2013
    • Сообщений: 347
    • Репутация: 28
    Здравствуйте. Есть сайт на котором много дублей страниц.
    Нужно оставить в индексе такие страницы
    блабла.com/hateke-takashi-hd-desktop-wallpaper.html
    А убрать
    блабла.com/hateke-takashi-hd-desktop-wallpaper.html/hateke-takashi-hd-desktop-wallpaper
    Возможно это сделать в с помощью манипуляций в роботсе?
    Необходимо уточнение, все ваши дубли начинаются с /hateke-takashi-hd-desktop-wallpaper или все дубли имеют копию УРЛ оригинальной страницы?
    • 1

    Спасибо сказали:

    svetocopy(18.03.2014),
  4. Дипломник Аватар для svetocopy
    • Регистрация: 31.03.2013
    • Сообщений: 119
    • Репутация: 19
    • Webmoney BL: ?
    Fish_su,Все дубли имеют копию урл оригинальной страницы, только в самом конце без .html

    ---------- Сообщение добавлено 14:09 ---------- Предыдущее 12:36 ----------

    Dezm, Можно поподробней? на сайте таких дублей около 4 тыс.
    • 0
  5. Опытный
    • Регистрация: 10.11.2013
    • Сообщений: 347
    • Репутация: 28
    svetocopy, Ну с помощью роботса вы такую проблему не решите, да и необходимости в этом нет. В роботсе принято закрывать от индексации те адреса страниц, которые на сайте в любом случае должны быть, но их индексация нежелательна. Например, это могут быть страницы фильтра товаров в интернет-магазине, страницы административной панели сайта и т.п. В данном случае страницы (дубли) никакой смысловой нагрузки не несут и их наличие на сайте ничем не обосновано. Следовательно, просто найдите проблему в настройках своей CMS, которая штампует дубли и устраните ее. Таким образом эти страницы просто исчезнут и будут возвращать 404 ошибку. Со временем они просто вылетят из индекса и все.
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
Вопрос про общий robots.txt и поддомены
Вопросы от новичков 7 06.03.2014 18:02
Вопрос по Robots.txt
Вопросы от новичков 5 24.04.2013 11:59
Вопрос по robots.txt
Вопросы от новичков 2 04.11.2012 01:23
robots.txt вопрос
Вопросы от новичков 14 17.07.2012 18:37
Вопрос по robots.txt
Вопросы от новичков 3 10.01.2011 18:29

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры