помогите удалить ненужные сттраницы из гугла

(Ответов: 8, Просмотров: 1879)
  1. Студент
    • Регистрация: 22.05.2011
    • Сообщений: 46
    • Репутация: 8
    Имеется сайт izhbilet.ru Гугл индексирует автоматически созданные страницы - уже около 200 страниц, хочу их удалить.

    в роботсе прописал - Disallow: otzyvy-ob-otelyah.html/ но пока не помогает.
    вот, кстати какие страницы он упорно индексирует otzyvy-ob-otelyah.html?acountry=27, otzyvy-ob-otelyah.html?acountry=29 и т.д.
    • 0
  2. Дипломник
    • Регистрация: 18.09.2010
    • Сообщений: 111
    • Репутация: 24
    • Webmoney BL: ?
    Подождать как бы надо.
    • 0
  3. Banned
    • Регистрация: 04.09.2009
    • Сообщений: 2,143
    • Репутация: 104
    в гугле, если не ошибаюсь, в панель вебмастера есть функшин .. типа удалить страница нафиг, и опять же надо будеть прождать время пока умрёт страница и с кеша тоже...
    • 0
  4. Студент
    • Регистрация: 22.05.2011
    • Сообщений: 46
    • Репутация: 8
    Cпасибо. Но видимо надо было просто подождать - уже вылетело больше 90 страниц )))
    • 0
  5. Студент
    • Регистрация: 22.05.2011
    • Сообщений: 46
    • Репутация: 8
    Ниче не понимаю! В гугле то +110 страниц, то -110 страниц. Два раза сегодня мнение менял Гоша.
    • 0
  6. Студент Аватар для silverspam
    • Регистрация: 01.12.2010
    • Сообщений: 71
    • Репутация: 53
    • Webmoney BL: ?
    У меня два варианта:

    Код:
    User-agent: Googlebot
    Disallow: /index/
    Disallow: /m/
    Disallow: /ml/
    Disallow: /news/
    Disallow: /opr/
    Disallow: /sendmail/
    Disallow: /otzyvy-ob-otelyah*
    Либо:

    Код:
    User-agent: Googlebot
    Disallow: /index/
    Disallow: /m/
    Disallow: /ml/
    Disallow: /news/
    Disallow: /opr/
    Disallow: /sendmail/
    Disallow:
    Clean-param: acountry /otzyvy-ob-otelyah.html
    Второй вариант поидее сведет все страницы с параметром "acountry" в одной странице tzyvy-ob-otelyah.html . Правда не уверен что это сработает для гугла, но для яндекса точно работает.
    • 2

    Спасибо сказали:

    iRemaker(27.05.2011), Вадим(27.05.2011),
  7. Студент
    • Регистрация: 22.05.2011
    • Сообщений: 46
    • Репутация: 8
    Цитата Сообщение от silverspam Посмотреть сообщение
    Второй вариант поидее сведет все страницы с параметром "acountry" в одной странице tzyvy-ob-otelyah.html . Правда не уверен что это сработает для гугла, но для яндекса точно работает.
    Спасибо. Попробую второй вариант сначала
    • 0
  8. Новичок Аватар для SheldonCooper
    • Регистрация: 24.03.2010
    • Сообщений: 2
    • Репутация: 1
    Robots.txt не дает гарантии на то, что странички, в нем закрытые, не будут индексироваться.
    Единственное, что гарантированно выбросит из индекса ваши ненужные страницы - это мета тег robots на странице.
    Яндекс тоже понимает этот мета тег. В Robots.txt вообще лучше ничего не закрывать.

    "Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL-адреса, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project, могут появиться в результатах поиска Google." © Источник
    Оттуда же: "Чтобы полностью исключить вероятность появления контента страницы в индексе Google, даже если на нее ссылаются другие сайты, используйте метатег noindex. Если робот Googlebot начнет сканировать страницу, то обнаружит метатег noindex и не станет отображать ее в индексе."

    Статья на эту тему - http://netpeak.ua/blog/noindex_nofollow/
    • 0
  9. Студент
    • Регистрация: 22.05.2011
    • Сообщений: 46
    • Репутация: 8
    Цитата Сообщение от SheldonCooper Посмотреть сообщение
    Robots.txt не дает гарантии на то, что странички, в нем закрытые, не будут индексироваться.
    Единственное, что гарантированно выбросит из индекса ваши ненужные страницы - это мета тег robots на странице.
    Яндекс тоже понимает этот мета тег. В Robots.txt вообще лучше ничего не закрывать.

    "Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL-адреса, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project, могут появиться в результатах поиска Google." © Источник
    Оттуда же: "Чтобы полностью исключить вероятность появления контента страницы в индексе Google, даже если на нее ссылаются другие сайты, используйте метатег noindex. Если робот Googlebot начнет сканировать страницу, то обнаружит метатег noindex и не станет отображать ее в индексе."

    Статья на эту тему - http://netpeak.ua/blog/noindex_nofollow/
    Спасибо попробую метатэг вставить, роботс не помог
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
Как удалить закодированные ссылки в подвале на шаблонах WordPress (видео)
Дайджест блогосферы 0 21.01.2011 13:53
Как удалить форум? И помощь по чату.
Web программирование 3 21.01.2011 00:05
как удалить страницы дубли???
Вопросы от новичков 0 02.10.2010 03:36
Кеш гугла
Софт, скрипты, сервисы 4 23.09.2009 16:43

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры