Сайт на Joomla 2.5. Посмотрел в ГуглВебмастер повторяющиеся заголовки. Основным источником оказались страницы пагинации, вида /Page-2.html ..... /Page-4.html. Нужно избавится. Отредактировал pagination.php закрыл в <noindex>. Вот думаю имеет ли смыл добавить директиву в роботс Dissalow: /Page*?
Подскажите в правильном ли русле идет борьба с этими дублями и не приведут ли эти действия к каким-то совсем другим последствиям?
- 02.03.2013 19:45
- 02.03.2013 20:00
Dissalow: /*Page*
и
Dissalow: /*?*
так как не уверен - как у вас весь урл пагинации выглядит
Dissalow: /*?* - поакуратней, потому что закрывает всю динамику (страницы поиска, некоторые компоненты и пр)
http://webmaster.yandex.ru/robots.xmlСпасибо сказали:
genesis33(02.03.2013), - 02.03.2013 20:14
Я обычно закрывал так же через роботс. Помогает хорошо, по крайней мере для яндекса.
Только лучше закрывать не Dissalow: /Page*, а попробовать так: Dissalow: /Page-* чтобы не закрыть случайно нужные страницы, где может встретиться "page"Спасибо сказали:
genesis33(02.03.2013), - 02.03.2013 23:21Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
genesis33, для гугла лучше по статье
Скрытый текст (вы должны зарегистрироваться или войти под своим логином):У вас нет прав чтобы видеть скрытый текст, содержащийся здесь.
делать.Спасибо сказали:
genesis33(03.03.2013), - 03.03.2013 21:52Студент

- Регистрация: 30.06.2011
- Сообщений: 52
- Репутация: 1
Закрыть в robots.txt
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Категории, пагинация - борьба с дублями (Wordpress) | WordPress | 11 | 08.09.2012 17:38 |
Будет ли это дублями страниц? | Вопросы от новичков | 10 | 01.07.2012 14:54 |
Считать ли дублями страницы со слешем и без? | Вопросы от новичков | 5 | 14.05.2012 23:00 |
Дубли Wordpress при пагинации | WordPress | 11 | 17.04.2012 02:32 |
Категории, пагинация - борьба с дублями (Wordpress) | Вопросы от новичков | 1 | 21.03.2012 01:58 |





