Robots.txt или в noindex

(Ответов: 4, Просмотров: 1103)
  1. Новичок
    • Регистрация: 09.09.2011
    • Сообщений: 18
    • Репутация: 3
    Прежде чем писать сюда посмотрел темы где упоминается что-либо о файле robots.txt в разных топиках форума. Но в основном все говорят либо про конкретные страницы, либо про теги и метки на блогах.

    В этот раз суть вопроса такова. В интернет-магазинах есть блок фильтрации. В разных интернет магазинах она разная. И выглядит тоже по разному.

    Пример, есть страница с таким урлом: http://sait.ru/catalog/tool/?s=popular&brand=3178

    Как в этом случае лучше поступить? Закрыть блок в ноиндекс? Либо закрыть его в роботсе?

    Кроме этого, кто-нибудь из форумчан применял в роботсе директиву Clean-param? И можно ли её использовать в выше описанном примере? Если нет, то в каких случаях она применяется (если не сложно, конкретные примеры)
    • 0
  2. Sunshine reggae Аватар для OKyJIucT
    • Регистрация: 02.09.2011
    • Сообщений: 3,240
    • Репутация: 1830
    • Webmoney BL: ?
    Я закрывал в роботсе, ставил запрет страниц, в адресе которых есть "?"

    Мануал от гугла
    Чтобы заблокировать доступ ко всем URL-адресам, содержащим знак вопроса (?) (то есть ко всем URL-адресам, которые начинаются с названия домена и содержат вопросительный знак), добавьте в файл robots.txt следующую запись:
    User-agent: Googlebot
    Disallow: /*?
    • 1

    Спасибо сказали:

    arturfat(14.09.2011),
  3. Гуру Аватар для dmg.shark
    • Регистрация: 10.04.2010
    • Сообщений: 2,312
    • Репутация: 728
    • Webmoney BL: ?
    arturfat, закрыв страницы в robots.txt вы получаете гарантию, что не будет дублей с другой сортировкой, поэтому это нужно делать. Закрывать кусок страницы от индексации тоже нужно, потому что это мусорный код, который не нужен поисковой системе. Но лучше всего не в <noindex> закрывать, а например сделать на JS эту сортировку, тогда она просто-напросто сама в индекс не пойдет :) удачного продвижения! :)
    • 1

    Спасибо сказали:

    arturfat(14.09.2011),
  4. Новичок
    • Регистрация: 09.09.2011
    • Сообщений: 18
    • Репутация: 3
    dmg.shark, да проблема то в том, что делать сейчас сортировку на JS, то это перепрограммировать получается надо. В данном случае возможности таковой нет. Значит остается закрывать в роботсе.
    • 0
  5. Особый статус Аватар для domainsfree
    • Регистрация: 13.01.2011
    • Сообщений: 507
    • Репутация: 211
    Я бы порекомендовал mod_rewrite дабы все фильтры и прочие служебные урлы вынести организованно в disallow. Я стараюсь это делать вначале разработки сайта. Попробуйте в роботсе создать правило: если урлы содержат какие-то значения, например popular&brand их не индексировать.
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
noindex в сайд бар? (noindex в боковую колонку?)
Вопросы от новичков 2 07.09.2011 20:09
мета-тег noindex
Общие вопросы поисковой оптимизации 9 23.12.2010 03:58
Что предпочтительнее: nofollow или noindex?
Вопросы от новичков 12 27.03.2010 14:24
Яндекс плюет на тег NOINDEX
Дайджест блогосферы 0 22.03.2010 13:58
Список блогов без noindex.
Дайджест блогосферы 1 15.03.2010 11:51

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры