| | Основные черты алгоритма Google Panda в своем аналитическом материале перечисляет Майкл Мартинес (Michael Martinez), основатель и автор сайта Seo-theory.com. Технология Panda была реализована как классификатор документов. Здесь Майкл имеет в виду, что Google классифицирует одни сайты как низкокачественные, а другие – наоборот.  Алгоритм Panda помог некоторым сайтам с дублированным контентом Очень много вебмастеров жаловалось на то, что а) потеряли трафик в результате апдейта б) их сайты стали ранжироваться ниже, чем сайты, которые скопировали у них контент Алгоритм Panda смотрит на сайты в целом В официальном релизе нового алгоритма в блоге Google Blog от 24 февраля Амит Сингал и Мэтт Катс написали, что теперь поисковик будет давать более высокие позиции более качественным сайтам – с оригинальным контентом, исследованиями, глубокими обзорами, анализом и т.п. Технология Panda использует «новые сигналы» В выпущенной 11 апреля второй версии Панды были добавлены новые сигналы, которые свидетельствуют о пользовательской активности на сайте. Алгоритм Панда использует многочисленные сигналы Впервые Google ассоциирует «низкокачественные сайты» с «поверхностным или небрежно написанным контентом, контентом, скопированным с других сайтов и просто бесполезной информацией». Также Google отмечает, что низкокачественная одна часть сайта может повлиять на ранжирование всего сайта в целом. У сайтов, которые пострадали от Panda, снизилась также и частота индексации Определив сайт как бесполезный для интернет-пользователей, Google уже не будет так же часто его индексировать. Google сопоставляет заниженные Пандой сайты с пользовательским фидбеком Google сообщал, что около 84% составило совпадение по 100 тысячам пользовательских сообщений о некачественных сайтах, собранным с приложения для браузера Chrome. Однако гуглеры дали понять, что сайт не будет понижен только на основании пользовательского отзыва - первоначально сайт должен быть алгоритмически признан некачественным. Никаких исключений, сделанных вручную, для Панды не существует Представители компании заявляли, что для алгоритма Панда не создавалась никаких «белых списков» - для сайтов, которым вручную возвращают на позиции. Чтобы подняться из пропасти, в которую провалились многие сайты, нужно внести кардинальные изменения, улучшить сайт. Это значит, что писать запросы на пересмотр решения алгоритма в Google в данном случае бесполезно. Внутренние ссылки по-прежнему работают В среде западных вебмастеров ходили слухи о понижении роли внутренней перелинковки. Однако сложно поверить, что Google перестал воспринимать вообще все ссылки на сайте. Скорее просто у тех сайтов, которые потеряли позиции, сильно снизился PageRank страниц и не осталось никакого веса, чтобы его передавать ссылками. Индивидуальный подход к сайтам Среди советов для вебмастеров по улучшению сайта все чаще от Google можно услышать даже такое: - насколько грамотно (орфографически и стилистически) написан контент на сайте, нет ли фактических ошибок - не отвлекает ли внимание пользователя от контента переизбыток рекламы на сайте и т.д. В одном из своих выступлений Мэтт Катс даже сравнивает качественные сайты с продукцией Apple, в которой все прекрасно начиная с упаковки и заканчивая процессом работы. |