Прежде чем писать сюда посмотрел темы где упоминается что-либо о файле robots.txt в разных топиках форума. Но в основном все говорят либо про конкретные страницы, либо про теги и метки на блогах.
В этот раз суть вопроса такова. В интернет-магазинах есть блок фильтрации. В разных интернет магазинах она разная. И выглядит тоже по разному.
Пример, есть страница с таким урлом: http://sait.ru/catalog/tool/?s=popular&brand=3178
Как в этом случае лучше поступить? Закрыть блок в ноиндекс? Либо закрыть его в роботсе?
Кроме этого, кто-нибудь из форумчан применял в роботсе директиву Clean-param? И можно ли её использовать в выше описанном примере? Если нет, то в каких случаях она применяется (если не сложно, конкретные примеры)
- 14.09.2011 13:26
- Регистрация: 09.09.2011
- Сообщений: 18
- Репутация: 3
- 14.09.2011 13:33
Я закрывал в роботсе, ставил запрет страниц, в адресе которых есть "?"
Мануал от гуглаЧтобы заблокировать доступ ко всем URL-адресам, содержащим знак вопроса (?) (то есть ко всем URL-адресам, которые начинаются с названия домена и содержат вопросительный знак), добавьте в файл robots.txt следующую запись:
User-agent: Googlebot
Disallow: /*?Спасибо сказали:
arturfat(14.09.2011), - 14.09.2011 15:30
arturfat, закрыв страницы в robots.txt вы получаете гарантию, что не будет дублей с другой сортировкой, поэтому это нужно делать. Закрывать кусок страницы от индексации тоже нужно, потому что это мусорный код, который не нужен поисковой системе. Но лучше всего не в <noindex> закрывать, а например сделать на JS эту сортировку, тогда она просто-напросто сама в индекс не пойдет :) удачного продвижения! :)
Спасибо сказали:
arturfat(14.09.2011), - 14.09.2011 17:17
- Регистрация: 09.09.2011
- Сообщений: 18
- Репутация: 3
dmg.shark, да проблема то в том, что делать сейчас сортировку на JS, то это перепрограммировать получается надо. В данном случае возможности таковой нет. Значит остается закрывать в роботсе.
- 15.09.2011 16:11
Я бы порекомендовал mod_rewrite дабы все фильтры и прочие служебные урлы вынести организованно в disallow. Я стараюсь это делать вначале разработки сайта. Попробуйте в роботсе создать правило: если урлы содержат какие-то значения, например popular&brand их не индексировать.
Тэги топика:
- noindex,
- robots,
- robots.txt,
- блок,
- есть,
- закрыть,
- конкретный,
- пример,
- разный,
- роботс
Похожие темы
Темы | Раздел | Ответов | Последний пост |
---|---|---|---|
noindex в сайд бар? (noindex в боковую колонку?) | Вопросы от новичков | 2 | 07.09.2011 20:09 |
мета-тег noindex | Общие вопросы поисковой оптимизации | 9 | 23.12.2010 03:58 |
Что предпочтительнее: nofollow или noindex? | Вопросы от новичков | 12 | 27.03.2010 14:24 |
Яндекс плюет на тег NOINDEX | Дайджест блогосферы | 0 | 22.03.2010 13:58 |
Список блогов без noindex. | Дайджест блогосферы | 1 | 15.03.2010 11:51 |