В яндекс вэбмастере имеется около десяти подобных страниц с одним и тем же содержанием.
Сегодня поставил новый robots по совету друга:
поможет ли он убрать эту проблему? и дубли ли это.User-agent: *
Disallow: /admin/
Disallow: /cache/
Disallow: /converge_local/
Disallow: /hooks/
Disallow: /ips_kernel/
Disallow: /retail/
Disallow: /public/js/
Disallow: /public/style_captcha/
Disallow: /public/style_css/
Disallow: /index.php?app=core&module=task
Disallow: /index.php?app=core&module=usercp&tab=forums&area=f orumsubs
Disallow: /index.php?app=core&module=usercp&tab=forums&area=w atch&watch=topic
Disallow: /index.php?app=forums&module=extras§ion=forward
Disallow: /index.php?app=members&module=messaging
Disallow: /index.php?app=members&module=chat
Disallow: /index.php?app=members&module=search
Disallow: /index.php?app=members&module=search&do=active
Disallow: /index.php?&unlockUserAgent=1
Disallow: /*app=core&module=usercp
Disallow: /*app=core&module=usercp
Disallow: /*app=members&module=messaging
Disallow: /*&p=
Disallow: /*&pid=
Disallow: /*&hl=
Disallow: /*&start=
Disallow: /*view__getnewpost$
Disallow: /*view__getlastpost$
Disallow: /*view__old$
Disallow: /*view__new$
Disallow: /*view__getfirst$
Disallow: /*view__getprevious$
Disallow: /*view__getnext$
Disallow: /*view__getlast$
Disallow: /*&view=getnewpost$
Disallow: /*&view=getlastpost$
Disallow: /*&view=old$
Disallow: /*&view=new$
Disallow: /*&view=getfirst$
Disallow: /*&view=getprevious$
Disallow: /*&view=getnext$
Disallow: /*&view=getlast$
Disallow: /*?s=
Disallow: /*&s=
- 30.05.2012 17:54
- Регистрация: 10.02.2012
- Сообщений: 44
- Репутация: 3
- 30.05.2012 19:34
Чтобы ответить на ваш вопрос нужно как минимум знать на каком движке сайт.
- 30.05.2012 19:39
- 30.05.2012 19:45
В данном случае настройка robots.txt может зависеть от плагинов на вашем сайте. Так как каждый плагин может на сайте размещать ссылки, и чтобы дать вам ответ нужно изучить сайт, и только потом настраивать роботс, а так это будет как "выстрел из пушки по воробям".
- 30.05.2012 20:00
- Регистрация: 10.02.2012
- Сообщений: 44
- Репутация: 3
bober, плагин по поисковой оптимизации пуст , кроме создания мета-тегов и настройки ЧПУ , могли бы подсказать где именно?
- 01.06.2012 17:08
- Регистрация: 01.06.2012
- Сообщений: 4
- Репутация: 0
У Яндекса есть специальные интрументы для проверки правильности robots.txt http://webmaster.yandex.ru/robots.xml
введите в форму имя домена (обязательно так же, как у вас настроены зеркала сайта, т.е. с www или без него),
введите свой robots.txt и добавьте внизу в поле "Список URL" несколько Url, которые вам выдал вебмастер. Нажмите "проверить" и сервис покажет - закрыты эти урлы от индекса или нет.
Похожие темы
Темы | Раздел | Ответов | Последний пост |
---|---|---|---|
Дубли на uCoz. | Общие вопросы поисковой оптимизации | 9 | 18.11.2013 13:04 |
Дубли Wordpress при пагинации | WordPress | 11 | 17.04.2012 02:32 |
Дубли страниц. Ужас. Как закрыть? | Вопросы от новичков | 14 | 19.09.2011 21:04 |
Как убрать дубли? | Вопросы от новичков | 8 | 16.09.2011 20:59 |
Как убрать дубли страниц в phpbb? | Web программирование | 3 | 05.04.2011 10:06 |