Дубли страниц в Яндексе

(Ответов: 14, Просмотров: 1978)
Страница 1 из 2 12 Последняя
  1. Новичок Аватар для Баяс
    • Регистрация: 17.10.2014
    • Сообщений: 16
    • Репутация: 6
    Уважаемые знатоки! Помогите советом! Яндекс неожиданно проиндексировал огромное количество дублей только одной моей статьи. Как их закрыть в роботсе или другим образом? Все дубли с цифрами на конце. Вот такого вида:

    Как вывести популярные статьи в сайдбар | Блог Баяса Батуева - Part 760
    bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/760
    • 0
  2. Гуру Аватар для Matsa
    • Регистрация: 11.02.2012
    • Сообщений: 1,344
    • Репутация: 558
    • Webmoney BL: ?
    Если требуется исключить дубли только у этой статьи то можно так

    Код:
    Disallow: /kak-vyvesti-populyarnye-stati-v-sajdbar.html/
    Читаю https://bankstoday.net/ и стал разбираться в экономике и финансах
    • 1

    Спасибо сказали:

    Баяс(15.02.2015),
  3. Новичок Аватар для Баяс
    • Регистрация: 17.10.2014
    • Сообщений: 16
    • Репутация: 6
    Цитата Сообщение от Matsa Посмотреть сообщение
    Disallow: /kak-vyvesti-populyarnye-stati-v-sajdbar.html/
    Но таким образом закроется сам оригинал статьи, а мне нужно удалить дубли, которые с цифрами на конце.
    • 0
  4. work hard Аватар для zhurik
    • Регистрация: 20.11.2012
    • Сообщений: 1,691
    • Репутация: 1041
    • Webmoney BL: ?
    rel=canonical настроен неправильно, сам на себя. Ковыряйтесь с SEO плагинами - там че то неправильно видимо сделали.
    • 0
  5. Гуру Аватар для Matsa
    • Регистрация: 11.02.2012
    • Сообщений: 1,344
    • Репутация: 558
    • Webmoney BL: ?
    Цитата Сообщение от Баяс Посмотреть сообщение
    Но таким образом закроется сам оригинал статьи, а мне нужно удалить дубли, которые с цифрами на конце.
    Строка
    Код:
     Disallow: /kak-vyvesti-populyarnye-stati-v-sajdbar.html/
    не запрещает индексацию страницы
    bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html

    если не верите, воспользуйтесь сервисом яндекса проверки роботса
    _https://webmaster.yandex.ru/robots.xml
    Читаю https://bankstoday.net/ и стал разбираться в экономике и финансах
    • 1

    Спасибо сказали:

    Баяс(12.02.2015),
  6. Новичок Аватар для Баяс
    • Регистрация: 17.10.2014
    • Сообщений: 16
    • Репутация: 6
    Цитата Сообщение от Matsa Посмотреть сообщение
    если не верите, воспользуйтесь сервисом яндекса проверки роботса
    _https://webmaster.yandex.ru/robots.xml
    И действительно, разрешен. Что-то я совсем запутался. Ведь значение Disallow запрещает индексировать, почему же в этом случае разрешено? И второй вопрос: если я сделаю так, как вы советуете, почему этот же URL, но с цифрами в конце, не будет индексироваться? Можно как-нибудь попроще объяснить, а то казенный язык я трудно воспринимаю. Заранее спасибо.
    • 0
  7. Новичок Аватар для Cyrus
    • Регистрация: 17.11.2014
    • Сообщений: 13
    • Репутация: 8
    Баяс, адрес оригинальной страницы - bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html (без слеша на конце). В правиле
    Код:
    Disallow: /kak-vyvesti-populyarnye-stati-v-sajdbar.html/
    запрещены все адреса начинающиеся на bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/ (со слешем на конце). Так как в исходном (оригинальном) адресе нет слеша в конце, она не соответствует этому запрещающему правилу и, следовательно, оно на неё не действует, что нельзя сказать о её дублях.
    Но я бы прислушался к совету zhurik и разбирался с плагином, который неправильно расставляет атрибут rel=canonical, так как данное правило в robots.txt закроет дубли только одной единственной статьи и нет гарантий что такая ошибка не повторится вновь уже с другими страницами сайта.
    • 2

    Спасибо сказали:

    Pryanik_IT(01.03.2015), Баяс(15.02.2015),
  8. Новичок Аватар для Баяс
    • Регистрация: 17.10.2014
    • Сообщений: 16
    • Репутация: 6
    Цитата Сообщение от Cyrus Посмотреть сообщение
    запрещены все адреса начинающиеся на bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/ (со слешем на конце). Так как в исходном (оригинальном) адресе нет слеша в конце, она не соответствует этому запрещающему правилу и, следовательно, оно на неё не действует, что нельзя сказать о её дублях.
    Но я бы прислушался к совету zhurik и разбирался с плагином, который неправильно расставляет атрибут rel=canonical, так как данное правило в robots.txt закроет дубли только одной единственной статьи и нет гарантий что такая ошибка не повторится вновь уже с другими страницами сайта.
    Супер. Все просто и логично. Спасибо всем.
    • 0
  9. Студент Аватар для web-ber
    • Регистрация: 10.02.2015
    • Сообщений: 49
    • Репутация: 11
    • Webmoney BL: ?
    Disallow: /kak-vyvesti-populyarnye-stati-v-sajdbar.html/ ---- так не айс

    Disallow: /*.html/* ------------ так айс
    • 1

    Спасибо сказали:

    Баяс(15.02.2015),
  10. Гуру
    • Регистрация: 09.10.2011
    • Сообщений: 1,813
    • Репутация: 251
    Цитата Сообщение от zhurik Посмотреть сообщение
    rel=canonical настроен неправильно, сам на себя.
    Так сделано у 100500 сайтов и работает. В этом ничего нет плохого :)

    ---------- Сообщение добавлено 13:48 ---------- Предыдущее 13:46 ----------

    Баяс, лучше выяснить откуда они берутся. Если не хочется потом 100500 таких же с других страниц в роботс закрывать. Кстати, а что с гуглом делать будете? Для него закрыть в роботс, не значит выкинуть из индекса. Это только в яше так работает, закрыл и вылетело.
    • 0
Страница 1 из 2 12 Последняя

Похожие темы

Темы Раздел Ответов Последний пост
Дубли страниц
Вопросы от новичков 3 27.09.2014 18:04
Продам футбольный портал (ТИЦ 10/ПР 0 - 1000 страниц в Яндексе/1500 страниц в Гугле)
Покупка продажа сайтов 0 21.03.2014 16:06
Как убрать дубли страниц на DLE
DLE 3 06.02.2013 00:55
Дубли страниц?
Вопросы от новичков 5 01.06.2012 17:08

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры