Google индексирует запрещеные страницы

(Ответов: 4, Просмотров: 702)
  1. Студент
    • Регистрация: 01.02.2014
    • Сообщений: 42
    • Репутация: 1
    Всем привет!
    Поставил запрет: <meta name="robots" content="noindex"> на страницы тегов, user, архив и т.д., а раньше прописывал все это в роботсе. Но ПС все равно их индексирует их(прошло около полторы-две недели), что с запретом в роботсе, что данной строчкой на ненужных страницах.
    Что делать? или просто подождать и страницы сами со временем вылетят из поиска?
    К тому же появилось 1,5к страниц 404 в поиске (удаленные мною профили пользователей), хотя с запретом в роботсе не появлялись, профили удалил года пол назад в размере 16к профилей.
    Ну и снова же дубликат контента идет из-за этого + дублируется дескрипшен главной страницы на страницах архива/тегов и т.д.


    И ещё вопрос: валидация кода не влияет ведь на ранжирование страниц в поиске? это ведь миф?
    • 0
  2. Студент
    • Регистрация: 01.02.2014
    • Сообщений: 42
    • Репутация: 1
    Стойте, профили удалены и попадают в 404 как не найденные страницы, в гугле. Но и страницы тегов тоже попадают в 404 (не найденные URL) гуглом, значит, это по-идее просто страницы так с поиска вылетают?
    Просто когда не было тегов, то думал, что профили проиндексились, поскольку они действительно удалены и имеют страницу 404 и из-за этого попали в google, в ошибки URL --> не найдено.

    А это по-идее так страницы с поиска вылетают из-за запрета индексации, верно? Или ошибаюсь? Просто раньше с этим не сталкивался.

    (Извиняюсь за бредо-вопросы). Заранее спасибо ответившим и админам/модерам, что оставили такую нубскую тему от "новичка"


    Стоит ли отмечать ссылки как "исправленные" или пусть так висят, как не найденные?
    Последний раз редактировалось nissad; 18.02.2014 в 23:07.
    • 0
  3. Гуру Аватар для Vooda2012
    • Регистрация: 16.05.2012
    • Сообщений: 522
    • Репутация: 156
    Если вы прописали на странице мета тег noindex, то обязательно уберите запрет из файла robots. После этого ненужные странички начнут выпадать из индекса. Правда происходит это весьма медленно.
    Валидность страницы возможно и является одним из множества факторов ранжирования, но явно не очень важным.
    • 2

    Спасибо сказали:

    nissad(18.02.2014), pyramida(20.02.2014),
  4. Студент
    • Регистрация: 01.02.2014
    • Сообщений: 42
    • Репутация: 1
    Vooda2012,Из robots'а всё убрал сразу же, как только вписал noindex.
    При выпадание странички будут как 404 (не найденные) поисковыми системами и будут заноситься в ошибки URL --> не найдено?
    Или же просто выпадут, но нигде занесены не будут?
    • 0
  5. Гуру
    • Регистрация: 09.10.2011
    • Сообщений: 1,814
    • Репутация: 251
    При выпадание странички будут как 404 (не найденные) поисковыми системами и будут заноситься в ошибки URL --> не найдено?
    Да и это делается на всякий случай, чтобы вебмастер знал. Если уверенны, что их нет и они не нужны, то отметьте как исправлено. Постепенно уйдут.
    Проверьте так же их в ВМТ "посмотреть как гуглебот" чтобы убедится, что они отдают боту код 404.
    • 1

    Спасибо сказали:

    nissad(21.02.2014),

Похожие темы

Темы Раздел Ответов Последний пост
Гугл не правильно индексирует страницы (Прошу указать причину)
WordPress 4 16.08.2013 15:24
Плохо индексирует Google - что делать ?
Вопросы от новичков 14 04.12.2012 03:39
Гугл индексирует страницы, запрещенные в robot.txt
Google 11 04.09.2012 12:04
Google индексирует JavaScript
Google 11 26.06.2011 01:12

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры