Страницы с неуникальным контентом

(Ответов: 9, Просмотров: 1097)
  1. Опытный Аватар для Ayk
    • Регистрация: 28.08.2012
    • Сообщений: 289
    • Репутация: 7
    Добрый вечер! Скажите, пожалуйста, как лучше поступить: есть сайт с уникальным контентом, но отдельные страницы в категории - 100% дубль, его переписать нельзя, да и никчему. Скажите, что сделать: закрыть от индексации <noindex> + в роботс.тхт – поможет? Или вообще лучше избавиться от этих страниц удалить?

    ---------- Сообщение добавлено 17:36 ---------- Предыдущее 16:44 ----------

    Тема вверх!
    • 0
  2. Дизайнер года Аватар для Kiwikov
    • Регистрация: 17.12.2012
    • Сообщений: 1,399
    • Репутация: 741
    • Webmoney BL: ?
    Дубли нужно удалять срочно. Это может послужить наложением фильтров.
    Качественный дизайн сайтов от 70$ - Профессиональный дизайн для Вас и Ваших клиентов!
    • 0
  3. Опытный Аватар для Ayk
    • Регистрация: 28.08.2012
    • Сообщений: 289
    • Репутация: 7
    Kiwikov, а запрет индексации не поможет?
    • 0
  4. Дизайнер года Аватар для Kiwikov
    • Регистрация: 17.12.2012
    • Сообщений: 1,399
    • Репутация: 741
    • Webmoney BL: ?
    Ayk, В бытие такие страницы удаляют, а не закрывают от индексации. Тут я уже не смогу точно ответить, так как не сталкивался с этим. Но думаю это лучше чем оставить клонов жить в совместимости с оригиналом. Последует пессимизация или что более вероятнее - фильтры.
    Качественный дизайн сайтов от 70$ - Профессиональный дизайн для Вас и Ваших клиентов!
    • 0
  5. SEO специалист Аватар для hammer8
    • Регистрация: 14.05.2012
    • Сообщений: 2,824
    • Репутация: 531
    • Webmoney BL: ?
    Цитата Сообщение от Kiwikov Посмотреть сообщение
    В бытие такие страницы удаляют, а не закрывают от индексации.
    Разные дубли бывают, например всякие архивы нужно именно закрывать для индексации, а не удалять.
    • 0
  6. Дипломник Аватар для ggkettle
    • Регистрация: 10.11.2013
    • Сообщений: 128
    • Репутация: 10
    • Webmoney BL: ?
    насколько я понял тут тема не про дубли, а про страницы с уник.контентом и не уник. если неуникальных статей не так много то стоит оставить. фильтры на это не наложат и на ранжирование не повлияет. можешь для перестраховки после неуник. статей оставить ссылку на оригинал. тогда точно все в порядке будет
    • 0
  7. Новичок
    • Регистрация: 20.04.2013
    • Сообщений: 19
    • Репутация: 0
    Цитата Сообщение от Kiwikov Посмотреть сообщение
    Дубли нужно удалять срочно. Это может послужить наложением фильтров.
    правильно заметил. многие забывают об этом делать или вообще не знают. полностью согласен.
    • 0
  8. Super Moderator Аватар для grazer
    • Регистрация: 03.09.2009
    • Сообщений: 5,201
    • Записей в дневнике: 83
    • Репутация: 2382
    • Webmoney BL: ?
    Цитата Сообщение от hammer8 Посмотреть сообщение
    Разные дубли бывают, например всякие архивы нужно именно закрывать для индексации, а не удалять
    Архивы вообще лучше удалять, кто ими пользуется? На большинстве сайтов и блогов это абсолютно бесполезные страницы, поскольку ими никто не пользуется.
    Домены, хостинг и VPS 10 лет доверяю REG.RU. Проблем нет.
    Найти меня можно в телеграме, подписывайтесь (cнг/бурж seo).
    • 1

    Спасибо сказали:

    hammer8(26.11.2013),
  9. SEO специалист Аватар для hammer8
    • Регистрация: 14.05.2012
    • Сообщений: 2,824
    • Репутация: 531
    • Webmoney BL: ?
    Цитата Сообщение от grazer Посмотреть сообщение
    Архивы вообще лучше удалять, кто ими пользуется?
    Я иногда пользуюсь, когда просматриваю блоги, если хочу посмотреть о чем писал автор раньше.
    • 0
  10. Новичок
    • Регистрация: 25.11.2013
    • Сообщений: 1
    • Репутация: 0
    Если для борьбы с дублями выбирать из:
    1. Ручное удаление
    2. 301 редирект
    3. meta name="robots"
    4. robots.txt
    5. link rel="canonical"
    Что предпочтительней?
    Я пользуюсь редиректом или закрываю в роботсе. Так проще и быстрее. Хотя лучше было бы использовать мета нейм <meta name="robots" content="noindex, follow"/>, - эта директива жестче, чем роботс, и потом, ссылки, которые на странице-неунике продолжают работать, т.е. передавать динамический и анкорный вес.
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
Как сделать, чтобы страницы открывались без перезугрузки страницы?
WordPress 5 23.06.2013 16:00
непонятные страницы с контентом
Дорвеи и black SEO 8 09.04.2013 14:26
сайт с уникальным контентом
Покупка продажа сайтов 1 03.03.2013 12:24

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры