На вордпресс-сайте образовалось много дублей типа _http://site.ru/category/blablabla.html/398 Т.е все дубли имеют копию урл оригинальной страницы, только в самом конце стоит слэш и произвольное число.
Как закрыть их от индексации? Спасибо!
- 14.01.2016 13:04
Заказываю тексты для своих сайтов только здесь! - 14.01.2016 13:23
chubays, впишите в роботс строчку:
Disallow: *html/*
тогда будет разрешено к индексации:
/category/blablabla.html
/blablabla.html
/category/blablabla
а запрещено:
/category/blablabla.html/398
/blablabla.html/398
/blablabla.html/456 - 14.01.2016 13:34
Большое спасибо, вроде работает!
Заказываю тексты для своих сайтов только здесь! - 14.01.2016 14:53
chubays, лучше такие страницы закрывать мета-роботс nofollow noindex
Спасибо сказали:
chubays(14.01.2016),
Похожие темы
Темы | Раздел | Ответов | Последний пост |
---|---|---|---|
Вопрос о закрытии в robots.txt | Вопросы от новичков | 4 | 18.03.2014 19:09 |
Вопрос по Robots.txt | Вопросы от новичков | 5 | 24.04.2013 11:59 |
Вопрос по robots.txt | Вопросы от новичков | 2 | 04.11.2012 01:23 |
robots.txt вопрос | Вопросы от новичков | 14 | 17.07.2012 18:37 |
Вопрос по robots.txt | Вопросы от новичков | 3 | 10.01.2011 19:29 |