Подскажите, когда делаешь запрет сканирования дублей страниц wordpress (например дубли комментариев-replytocom) через панель Google webmasters (параметры url), то в файле robots.txt их нужно открывать(удалять) или нет, вот эту строчку Disallow: /*?* ??? Это касается именно replytocom, и ответьте только на этот конкретный вопрос! Просто когда удаляешь url через тот же гугл вебмастер, то требуется закрывать перед этим в роботс, а вот на счет запрета сканирования я не найду инфы...
koven,Да это я знаю, но гугл все равно берет все в дополнительный индекс, который можно запретить через параметры url в панеле вебмастера...я имею ввиду эту связку: роботс и панель вебмастеров, можно сделать, что он и с дополнительного индекса весь шлак выкинет...
taison, да и пусть берет в supplemental results, его право, Яндекс делает тоже самое.
Не могу понять зачем, Вы перебарщиваете... Переживать стоит, если в сопли попадают основные страницы, а replytocom, влияют на пессимизацию сайта от 1 000 000 дуплетов комментариев.
ekart,он у меня и так используется через all in one seo pack, вопрос читайте внимательно!
---------- Сообщение добавлено 16:03 ---------- Предыдущее 16:02 ----------
creativepro,Я пользуюсь all in one seo pack, другие мне не нужны...
---------- Сообщение добавлено 16:29 ---------- Предыдущее 16:03 ----------
koven,Я вот тоже думаю, что это ни к чему, но многие SEOшники пишут, что нужно удалять эти дубли, даже если они в соплях, так как влияют на количество исходящих ссылок и это есть ДУБЛЬ! Если посмотреть через сервисы анализа сайта, то исходящих ссылок и впрям в разы больше..., а это потеря веса сайта У меня в роботс стоит запрет на replytocom, и через панель вебмастера гугл-параметры url я поставил запрет на сканирование этого элемента (раньше стояло-на усмотрение googlebot), теперь по идее ссылки с replytocom должны удалиться из соплей и новые не появляться? А некоторые сеошники советуют это в роботсе вообще открыть, поставить редирект 301 в htaccess, чтобы все replytocom ссылались на основной replytocom,так как wordpress сам прописывает метатег запрета сканирования страницы дублей <meta name='robots' content='noindex,follow' />, а при закрытом роботс он не увидит этот метатег... Я этого не делал, так как считаю рискованным так рьяно все открывать, а сделал как в вопросе описано, дак вот мне именно на вопрос и нужен ответ...
Я не буду спорить, о том что многие сеошники пишут, многие сеошники говорят.... достаточно открыть их стату чтоб посмотреть что они по сути трепло, у некоторых счетчики показывают не более 100-300 посетителей. Так какие они сео-оптимизаторы если к себе не могут траф нагнать..... Набей сначала 10 000 страниц, а потом сделай аудит и он тебе всё покажет, чем тыкать в небо, и оптимизировать сайт с 10 страницами. Проблемы нужно решать по мере поступления.
Последний раз редактировалось koven; 08.08.2014 в 23:09.