Всего страниц в Google 2,540
В основной выдаче Google 362
В supplemental выдаче Google 2,178 (85.7%)
15% в основной выдаче от части хорошо:) но хотелось бы и остальное туда запихать но как?))
контент весь уник
ссылочное хорошее
Дизу недавно меняли (3-5) месяцев назад, собственно после чего траф и упал...
Дублей нет
куда смотреть еще?)
Это самое адекватное что было найдено по теме, но контент везде уник, на каждой странице!Необходимо удалить с сайта страницы с одинаковым контентом или разместить на каждой из них уникальный текст и мета-информацию. Если фильтр уже был наложен, то после переписания информации рекомендуется купить на страницы небольшое количество внешних ссылок.
---------- Сообщение добавлено 11:19 ---------- Предыдущее 10:16 ----------
посидел подумал:)
нужен софт которым можно проверить индекс страниц, а именно в основной она выдачи или второстепенной
- 27.05.2014 16:19
- 28.05.2014 13:47Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
- 28.05.2014 13:53
nn165m, парсишь нетпик-спайдером весь сайт, в том числе и страницы закрытые в robots.txt, через софтину Яшколюб собираешь все страницы в индексе Google, в Экселе собираешь это всё дело в одну таблицу - в колонку А суешь все страницы (найденные сканером и те что в индексе гугла), через ВПР проверяешь каждую страницу на соответсвие, в идеале должно быть есть на сайте, есть в индексе гугла + проверка на robots.txt. Если есть в индексе, но нет на сайте - ищешь проблему. Если есть на сайте, но в индексе нет - ищешь проблему. Если закрыта в robots.txt, а в индексе есть (с пометкой) - удаляешь через GWT.
- 28.05.2014 16:36
pyramida, supplemental индекс есть! Там находятся "сопливый страницы", которые не представляют для пользователя поиска Google никакой ценной инфы. Не знаю как на других сайтах, а вот у кого сайт на движке Wordpress, ну хоть одна страница но в том индексе. http://www.cy-pr.com/ - посмотрите соотношение страниц не под фильтром. В суплементе как правило такого вида страницы: site.ru.attachment_id=, site.ru/любое слово,тег/feed/ и.т.д.
Сам борюсь периодически с этим, закрываю уже тегами ненужное. На роботс текст гугл боту начхать. И потом ручками удаляю через вебмастерс гугл все мусорные ссылки..
хоть и написано что в роботсе запрещено, но в индекс бот забирает это.. - 29.05.2014 00:22
- 29.05.2014 11:01Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
в 2007 отменили в гугле это дело. На гуглефоруме был ответ от гуглера. Поищите.
---------- Сообщение добавлено 11:31 ---------- Предыдущее 11:30 ----------
задолбало уже писать. Роботс управляет сканированием, а не индексированием. Гугл не яндекс -который видя закрытое в роботс выкидывает из индекса.Спасибо сказали:
Bakalov(29.05.2014), - 29.05.2014 11:10Опытный

- Регистрация: 01.10.2013
- Сообщений: 301
- Репутация: 26
pyramida, есть сопли.
Карпенко для Вас не авторитет?
http://seoprofy.ua/blog/wiki/chto-ta...mental-results - 29.05.2014 11:39
pyramida,
Файл robots.txt – это текстовый файл, находящийся в корневой директории сайта, в котором записываются специальные инструкции для поисковых роботов. Эти инструкции могут запрещать к индексации некоторые разделы или страницы на сайте, указывать на правильное «зеркалирование» домена, рекомендовать поисковому роботу соблюдать определенный временной интервал между скачиванием документов с сервера и т.д. - http://robotstxt.org.ru/задолбало уже писать. Роботс управляет сканированием, а не индексированием. Гугл не яндекс -который видя закрытое в роботс выкидывает из индекса.
Robots.txt — текстовый файл, расположенный на сайте, который предназначен для роботов поисковых систем. В этом файле вебмастер может указать параметры индексирования своего сайта как для всех роботов сразу, так и для каждой поисковой системы по отдельности - http://help.yandex.ru/webmaster/cont...-is-robots-txt
Робот Googlebot обрабатывает каждую сканируемую страницу, чтобы составить полный индекс всех найденных слов, а также отметить, в какой части страницы они находятся. Кроме того, мы обрабатываем данные из основных тегов и атрибутов, например тегов title и атрибутов alt. Робот Googlebot способен обрабатывать многие (но не все) типы содержания. К примеру, обработке не поддается содержание некоторых файлов мультимедиа и динамически создаваемых страниц. - https://support.google.com/webmasters/answer/70897#2
Почитайте на досуге. А суплемент и правда отменили в 2007 году - http://noindex.by/seo/google-supplem...dki-i-razgadki . Но всё же есть у гугла какойто "мусорный индекс" в поиске, если нет тогда как объяснить ещё всякие атачмент страницы. Да и сервис CY-PR, показывает основной индекс и фильтрованный индекс - 29.05.2014 17:50
- 30.05.2014 11:51Гуру

- Регистрация: 09.10.2011
- Сообщений: 1,813
- Репутация: 251
не авторитет. Для меня авторитет - Андрей Липатцев из гугла, с которым знаком лично. Володя Офицеров инженер команды поиска. КОторые уже мозоли имеют на языке, пытаясь объяснить элементарные вещи вебмастерам :)
---------- Сообщение добавлено 12:21 ---------- Предыдущее 12:20 ----------
Читайте, ответ Оксаны Команеску сотрудника гугла.Спасибо сказали:
Bakalov(02.06.2014), rawebmaster(30.05.2014),
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Фильтр АГС-40 | Фильтры поисковых систем | 2 | 14.11.2013 00:50 |
Где посмотреть supplemental выдачу Google? | Вопросы от новичков | 8 | 21.08.2013 11:58 |
Что такое сопли Google или supplemental results | Дайджест блогосферы | 1 | 06.05.2013 05:14 |
[help] Скорее всего Скорее всего фильтр от большого прироста ссылок.фильтр от большого прироса ссылок. | Оффтоп и свободные темы | 6 | 02.03.2013 11:17 |
Фильтр Яндекса “ты – ****ный” – обходим фильтр, возвращаем позиций + конкурс на 100 | Дайджест блогосферы | 5 | 25.02.2013 20:50 |







