Студент | Добрый День! Написать личные наблюдения о том, как необходимо вести себя при ситуации если Ваш сайт попал над фильтр меня натолкнул конкурс, который проводится на форуме WebMasters.ru. Надеюсь, что пользователи форума по заслуге оценят мой опыт и практику которую я расскажу и которые помогут им самостоятельно выводить сайты из-под различных фильтров, которые налаживает поисковый робот Яндекса. Теория Я выделяю несколько типов фильтров, которые может получить сайт и подразделяю их на две большие группы Внутренние факторы Внешние факторы
АГС Фильтр на коммерческие ссылки Фильтр за переоптимизацию Резкое возрастание ссылающихся сайтов Однородные сниппеты Заспамленные ссылки И если внешние факторы зачастую носят в себе временный характер, то внутренние факторы могут быть не сняты никогда. Зачастую сайты получают фильтр не из-за одного какого-либо фактора, а за несколько фактором в целом. Например, страницы сайта переоптимизированы, не несут полезной информации да еще и плюс к этому имеют весьма сомнительные обратные ссылки. АГС Фильтр АГС был введен Яндексом во второй половине 2009 и назывался он АГС-17. Изначально Яндекс не заявлял об этом фильтре официально, лишь со второй версией фильтра АГС-30 Яндекс официально заявили, что они ввели данный фильтр в свой поисковый движок. Вот, что написано на блоге разработчиков Яндекс Поиска:
В интернете стало появляться все больше сайтов, предназначенных исключительно для манипулирования алгоритмами поисковых систем. Такие сайты не содержат полезной информации, не представляют интереса для пользователей и могут ухудшить качество поиска Яндекса. Во второй половине 2009 года количество исключаемых из индекса некачественных сайтов стало расти, и мы решили официально объявить о существовании алгоритма АГС-17, предназначенного для их фильтрации в результатах поиска. Мы получили большое количество положительных отзывов о работе алгоритма АГС-17. Но многие пользователи справедливо жалуются на то, что в результатах поиска Яндекса все еще остаются некачественные сайты. Поэтому мы постарались увеличить полноту АГС-17. Новый алгоритм, основанный примерно на ста факторах, стал значительно умнее, быстрее и полнее старого, при этом его точность продолжает оставаться очень высокой. Новый алгоритм получил название АГС-30. Запись датируется 18 декабря 2009 года В основном суть данного фильтра была в том, чтобы исключать те сайты, у которых находились дубли страниц (страницы поиска и меток). Все тем вебмастера, которые не закрыли у себя на сайтах в файле robots.txt страницы меток и других дублирующих страниц попали в руки этого коварно фильтра. Явное наложение фильтра на сайт является резкое сокращение страниц в результатах поиска до 50 страниц в поиске. Переоптимизация страниц Самый популярный на данный момент фильтр с ноября 2011 года, под который попадает каждый четвертый коммерческий сайт, который держался на лидирующих позициях - это фильтр за переоптимизацию. Робот анализирует описание, ключевые слова и текст на странице на наличие переоптимизации. Если на Вашем сайте в большом количестве замечена переоптимизация страниц, то Ваш сайт, как и в случае с АГС будет выброшен частично из поиска. Практика В распоряжении есть коммерческий ресурс который имеет посещаемость 20 000 - 30 000 посетителей в сутки. Основная часть посещений идет с ПС. В один прекрасный день из 1 100 страниц в поиске Яндекс остается всего 10 страниц. Сайт полностью "вылетает" из поисковой выдачи. Я терплю большие затраты, невыполнение договора и обязательств - все идет наперекосяк. Меняем ЧПУ ссылок сайта, меняем дизайн и делаем его полностью валидны, продолжаем ежедневно наполнять сайт новой информацией. Делаем мобильную версию сайта, покупаем ссылки в супер-трастовых порталов. Все безрезультатно - сайт не хочет индексироваться роботом Яндекса. Начинаем переписку с Платонами:
На данный момент Ваш сайт не полностью соответствует нашим представлениям о качественном сайте и не может быть возвращен в поиск в полном объеме. Продолжайте развивать свой сайт, ориентируясь на наши рекомендации, и если в будущем алгоритмы сочтут его достаточно качественным по совокупности критериев, количество его страниц в поиске сможет увеличиться. В таком состоянии сайт пробыл примерно месяц. Затем, мы занялись пересмотром каждой страницы сайта и увидели, что поля description на некоторых страницах весьма переоптимизирован и в основном содержит ключевые слова. Буквально за ночь мы пересмотрели сайт с ног до головы. Убрали лишние страницы, которые не несут никакой информации, переписали все описания для страниц и опять написали Платонам. После нескольких дней ожидания, получаем письмо:
Сейчас с Вашим сайтом все в порядке, в ближайшее время он должен начать индексироваться и затем сможет появиться в поиске. Скорее всего, это произойдет в течение двух недель. После нескольких апдейтов сайт частично попал в индекс Яндекса и уже "пробивается" по поисковым запросам. Как избежать фильтров? Сейчас я буду говорить обыденные вещи, которые Вы слышали 100500 раз и за которые, возможно, я получу по попе, однако, делаете сайты, рассчитанные прежде всего на человека, не пишите в описаниях страницы информацию, которую нельзя найти на данной странице. Не смотрите, что у Вашего конкурента так написано и он выше в поисковой выдаче, ведь это может быть ненадолго. Закрывайте дублирующие страницы и страницы, которые не несут информативности через файл robots.txt, работаете над качеством контента и естественностью ссылок. Заботьтесь о том, чтобы Ваш сайт как можно чаще упоминался в социальных сетях. Благодарю за внимание! Последний раз редактировалось atrix; 18.02.2012 в 20:00. |
Спасибо сказали: | bav1k(22.11.2012), dmg.shark(20.02.2012), InFakes(18.02.2012), Katrich(19.02.2012), KipiaSoft(19.02.2012), Nitrino(20.02.2012), Orcstation(18.02.2012), semyon(26.02.2012), shabananton(01.03.2012), Vomalis(24.11.2014), zambrotta04(18.02.2012), Вадим(06.03.2012), Демиург(18.02.2012), | |