Удаление дублей страниц через Google webmasters

(Ответов: 9, Просмотров: 1384)
  1. Студент Аватар для taison
    • Регистрация: 29.07.2014
    • Сообщений: 87
    • Репутация: 4
    Подскажите, когда делаешь запрет сканирования дублей страниц wordpress (например дубли комментариев-replytocom) через панель Google webmasters (параметры url), то в файле robots.txt их нужно открывать(удалять) или нет, вот эту строчку Disallow: /*?* ???
    Это касается именно replytocom, и ответьте только на этот конкретный вопрос! Просто когда удаляешь url через тот же гугл вебмастер, то требуется закрывать перед этим в роботс, а вот на счет запрета сканирования я не найду инфы...
    • 0
  2. Дипломник Аватар для koven
    • Регистрация: 30.12.2013
    • Сообщений: 227
    • Репутация: 58
    • Webmoney BL: ?
    В роботсе прописывается запрет к индексации, а не запрет к сканированию

    Disallow: /*?* -запрет всего шлака, а не только древовидных коментариев.
    • 0
  3. Студент Аватар для taison
    • Регистрация: 29.07.2014
    • Сообщений: 87
    • Репутация: 4
    koven,Да это я знаю, но гугл все равно берет все в дополнительный индекс, который можно запретить через параметры url в панеле вебмастера...я имею ввиду эту связку: роботс и панель вебмастеров, можно сделать, что он и с дополнительного индекса весь шлак выкинет...
    • 0
  4. Дипломник Аватар для ekart
    • Регистрация: 02.01.2010
    • Сообщений: 162
    • Репутация: 44
    • Webmoney BL: ?
    Не проще ли использовать тэг каноникал?
    • 0
  5. Гуру
    • Регистрация: 12.12.2011
    • Сообщений: 508
    • Репутация: 107
    replytocom можно убрать в плагине wordpress seo by yoast, там специальные настройки есть для этого
    CreativePromotion.ru AI in SEO
    • 0
  6. Дипломник Аватар для koven
    • Регистрация: 30.12.2013
    • Сообщений: 227
    • Репутация: 58
    • Webmoney BL: ?
    taison, да и пусть берет в supplemental results, его право, Яндекс делает тоже самое.

    Не могу понять зачем, Вы перебарщиваете... Переживать стоит, если в сопли попадают основные страницы, а replytocom, влияют на пессимизацию сайта от 1 000 000 дуплетов комментариев.
    • 0
  7. Студент Аватар для taison
    • Регистрация: 29.07.2014
    • Сообщений: 87
    • Репутация: 4
    ekart,он у меня и так используется через all in one seo pack, вопрос читайте внимательно!

    ---------- Сообщение добавлено 16:03 ---------- Предыдущее 16:02 ----------

    creativepro,Я пользуюсь all in one seo pack, другие мне не нужны...

    ---------- Сообщение добавлено 16:29 ---------- Предыдущее 16:03 ----------

    koven,Я вот тоже думаю, что это ни к чему, но многие SEOшники пишут, что нужно удалять эти дубли, даже если они в соплях, так как влияют на количество исходящих ссылок и это есть ДУБЛЬ!
    Если посмотреть через сервисы анализа сайта, то исходящих ссылок и впрям в разы больше..., а это потеря веса сайта
    У меня в роботс стоит запрет на replytocom, и через панель вебмастера гугл-параметры url я поставил запрет на сканирование этого элемента (раньше стояло-на усмотрение googlebot), теперь по идее ссылки с replytocom должны удалиться из соплей и новые не появляться?
    А некоторые сеошники советуют это в роботсе вообще открыть, поставить редирект 301 в htaccess, чтобы все replytocom ссылались на основной replytocom,так как wordpress сам прописывает метатег запрета сканирования страницы дублей <meta name='robots' content='noindex,follow' />, а при закрытом роботс он не увидит этот метатег...
    Я этого не делал, так как считаю рискованным так рьяно все открывать, а сделал как в вопросе описано, дак вот мне именно на вопрос и нужен ответ...
    • 0
  8. Гуру
    • Регистрация: 09.10.2011
    • Сообщений: 1,814
    • Репутация: 251
    taison, бот перестанет только сканировать. А в индексе страница останется. зачем комменты закрываете? Ведь это дополнительная ценность.
    • 0
  9. Дипломник Аватар для koven
    • Регистрация: 30.12.2013
    • Сообщений: 227
    • Репутация: 58
    • Webmoney BL: ?
    Я не буду спорить, о том что многие сеошники пишут, многие сеошники говорят.... достаточно открыть их стату чтоб посмотреть что они по сути трепло, у некоторых счетчики показывают не более 100-300 посетителей. Так какие они сео-оптимизаторы если к себе не могут траф нагнать..... Набей сначала 10 000 страниц, а потом сделай аудит и он тебе всё покажет, чем тыкать в небо, и оптимизировать сайт с 10 страницами.
    Проблемы нужно решать по мере поступления.
    Последний раз редактировалось koven; 08.08.2014 в 23:09.
    • 0
  10. Студент Аватар для taison
    • Регистрация: 29.07.2014
    • Сообщений: 87
    • Репутация: 4
    pyramida,Комменты никто не закрывает, закрываю дубли!
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
Переиндексация через удаление и ключевые слова в url
Вопросы от новичков 4 25.10.2013 11:30
Удаление страниц из поиска (DMCA)
Вопросы от новичков 2 28.02.2013 20:28
Удаление дублей новостей в DLE
Дайджест блогосферы 5 28.02.2012 23:31
Определение дублей страниц
Софт, скрипты, сервисы 2 13.04.2011 15:29
Определение дублей страниц
Оффтоп и свободные темы 0 13.04.2011 15:04

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры