Уважаемые знатоки! Помогите советом! Яндекс неожиданно проиндексировал огромное количество дублей только одной моей статьи. Как их закрыть в роботсе или другим образом? Все дубли с цифрами на конце. Вот такого вида:
Как вывести популярные статьи в сайдбар | Блог Баяса Батуева - Part 760
bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/760
- 11.02.2015 10:50
- 11.02.2015 12:41
Если требуется исключить дубли только у этой статьи то можно так
Код:Disallow: /kak-vyvesti-populyarnye-stati-v-sajdbar.html/
Спасибо сказали:
Баяс(15.02.2015), - 11.02.2015 13:00
- 11.02.2015 13:34
rel=canonical настроен неправильно, сам на себя. Ковыряйтесь с SEO плагинами - там че то неправильно видимо сделали.
- 12.02.2015 12:08
Спасибо сказали:
Баяс(12.02.2015), - 12.02.2015 14:10
И действительно, разрешен. Что-то я совсем запутался. Ведь значение Disallow запрещает индексировать, почему же в этом случае разрешено? И второй вопрос: если я сделаю так, как вы советуете, почему этот же URL, но с цифрами в конце, не будет индексироваться? Можно как-нибудь попроще объяснить, а то казенный язык я трудно воспринимаю. Заранее спасибо.
- 12.02.2015 15:59
Баяс, адрес оригинальной страницы - bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html (без слеша на конце). В правиле
Код:запрещены все адреса начинающиеся на bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/ (со слешем на конце). Так как в исходном (оригинальном) адресе нет слеша в конце, она не соответствует этому запрещающему правилу и, следовательно, оно на неё не действует, что нельзя сказать о её дублях.Disallow: /kak-vyvesti-populyarnye-stati-v-sajdbar.html/
Но я бы прислушался к совету zhurik и разбирался с плагином, который неправильно расставляет атрибут rel=canonical, так как данное правило в robots.txt закроет дубли только одной единственной статьи и нет гарантий что такая ошибка не повторится вновь уже с другими страницами сайта.Спасибо сказали:
Pryanik_IT(01.03.2015), Баяс(15.02.2015), - 12.02.2015 19:50
- 15.02.2015 11:32
Disallow: /kak-vyvesti-populyarnye-stati-v-sajdbar.html/ ---- так не айс
Disallow: /*.html/* ------------ так айсСпасибо сказали:
Баяс(15.02.2015), - 15.02.2015 13:18Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
Так сделано у 100500 сайтов и работает. В этом ничего нет плохого :)
---------- Сообщение добавлено 13:48 ---------- Предыдущее 13:46 ----------
Баяс, лучше выяснить откуда они берутся. Если не хочется потом 100500 таких же с других страниц в роботс закрывать. Кстати, а что с гуглом делать будете? Для него закрыть в роботс, не значит выкинуть из индекса. Это только в яше так работает, закрыл и вылетело.
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Дубли страниц | Вопросы от новичков | 3 | 27.09.2014 18:04 |
Продам футбольный портал (ТИЦ 10/ПР 0 - 1000 страниц в Яндексе/1500 страниц в Гугле) | Покупка продажа сайтов | 0 | 21.03.2014 16:06 |
Как убрать дубли страниц на DLE | DLE | 3 | 06.02.2013 00:55 |
Дубли страниц? | Вопросы от новичков | 5 | 01.06.2012 17:08 |






