Подскажите, когда делаешь запрет сканирования дублей страниц wordpress (например дубли комментариев-replytocom) через панель Google webmasters (параметры url), то в файле robots.txt их нужно открывать(удалять) или нет, вот эту строчку Disallow: /*?* ???
Это касается именно replytocom, и ответьте только на этот конкретный вопрос! Просто когда удаляешь url через тот же гугл вебмастер, то требуется закрывать перед этим в роботс, а вот на счет запрета сканирования я не найду инфы...
- 08.08.2014 03:30
- 08.08.2014 03:50
В роботсе прописывается запрет к индексации, а не запрет к сканированию
Disallow: /*?* -запрет всего шлака, а не только древовидных коментариев. - 08.08.2014 05:13
koven,Да это я знаю, но гугл все равно берет все в дополнительный индекс, который можно запретить через параметры url в панеле вебмастера...я имею ввиду эту связку: роботс и панель вебмастеров, можно сделать, что он и с дополнительного индекса весь шлак выкинет...
- 08.08.2014 10:54
Не проще ли использовать тэг каноникал?
- 08.08.2014 11:02Гуру

- Регистрация: 12.12.2011
- Сообщений: 509
- Репутация: 107
replytocom можно убрать в плагине wordpress seo by yoast, там специальные настройки есть для этого
- 08.08.2014 14:06
taison, да и пусть берет в supplemental results, его право, Яндекс делает тоже самое.
Не могу понять зачем, Вы перебарщиваете... Переживать стоит, если в сопли попадают основные страницы, а replytocom, влияют на пессимизацию сайта от 1 000 000 дуплетов комментариев. - 08.08.2014 17:29
ekart,он у меня и так используется через all in one seo pack, вопрос читайте внимательно!
---------- Сообщение добавлено 16:03 ---------- Предыдущее 16:02 ----------
creativepro,Я пользуюсь all in one seo pack, другие мне не нужны...
---------- Сообщение добавлено 16:29 ---------- Предыдущее 16:03 ----------
koven,Я вот тоже думаю, что это ни к чему, но многие SEOшники пишут, что нужно удалять эти дубли, даже если они в соплях, так как влияют на количество исходящих ссылок и это есть ДУБЛЬ!
Если посмотреть через сервисы анализа сайта, то исходящих ссылок и впрям в разы больше..., а это потеря веса сайта
У меня в роботс стоит запрет на replytocom, и через панель вебмастера гугл-параметры url я поставил запрет на сканирование этого элемента (раньше стояло-на усмотрение googlebot), теперь по идее ссылки с replytocom должны удалиться из соплей и новые не появляться?
А некоторые сеошники советуют это в роботсе вообще открыть, поставить редирект 301 в htaccess, чтобы все replytocom ссылались на основной replytocom,так как wordpress сам прописывает метатег запрета сканирования страницы дублей <meta name='robots' content='noindex,follow' />, а при закрытом роботс он не увидит этот метатег...
Я этого не делал, так как считаю рискованным так рьяно все открывать, а сделал как в вопросе описано, дак вот мне именно на вопрос и нужен ответ... - 08.08.2014 22:05Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
taison, бот перестанет только сканировать. А в индексе страница останется. зачем комменты закрываете? Ведь это дополнительная ценность.
- 08.08.2014 23:04
Я не буду спорить, о том что многие сеошники пишут, многие сеошники говорят.... достаточно открыть их стату чтоб посмотреть что они по сути трепло, у некоторых счетчики показывают не более 100-300 посетителей. Так какие они сео-оптимизаторы если к себе не могут траф нагнать..... Набей сначала 10 000 страниц, а потом сделай аудит и он тебе всё покажет, чем тыкать в небо, и оптимизировать сайт с 10 страницами.
Проблемы нужно решать по мере поступления.Последний раз редактировалось koven; 08.08.2014 в 23:09.
- 09.08.2014 01:13
pyramida,Комменты никто не закрывает, закрываю дубли!
Тэги топика:
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Переиндексация через удаление и ключевые слова в url | Вопросы от новичков | 4 | 25.10.2013 11:30 |
Удаление страниц из поиска (DMCA) | Вопросы от новичков | 2 | 28.02.2013 20:28 |
Удаление дублей новостей в DLE | Дайджест блогосферы | 5 | 28.02.2012 23:31 |
Определение дублей страниц | Софт, скрипты, сервисы | 2 | 13.04.2011 15:29 |
Определение дублей страниц | Оффтоп и свободные темы | 0 | 13.04.2011 15:04 |




