Из за фильтра на сайте создаются страницы с подобными урлами:
//xxx/catalog/tikhoe-vino/?CODE=vino-kr-barone-di-bernay-nero-d-avola-2014-0-75l-italiya&FILTER%5BCOUNTRY%5D=531&SECTION_CODE=tikho e-vino&PAGEN_1=3
Получаются дубли. Их нужно исключить из индексации, делаю через robots - 2 варианта:
Disallow: /*FILTER
или
Clean-param: FILTER
Как будет правильней и почему? Или в обоих случаях ошибка.
Подскажите, пожалуйста
- 14.12.2015 23:23
- 14.12.2015 23:33
Попробуй
Код:Внеси строчку и проверь(впиши url для проверки) проверь тутDisallow: /*?CODE=
Сначала тестируй в вебмастере(вписывай там дополнения), а когда все работает уже можно строки в реальный robots прописать. - 15.12.2015 12:15
Так мне не нужно закрывать /*?CODE=
Потом и задаю вопрос.
Тэги топика:
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Не подскажите код ? | Оффтоп и свободные темы | 3 | 22.08.2015 22:35 |
Нубский вопрос по роботсу | Общие вопросы поисковой оптимизации | 5 | 28.10.2014 23:42 |
вопрос по роботсу | WordPress | 2 | 07.12.2012 16:58 |
Подскажите | WordPress | 1 | 02.02.2012 03:22 |
Подскажите что это за CMS? | Вопросы от новичков | 10 | 20.11.2011 23:24 |


