Если вы используете «черные» SEO-технологии, пристегните ремни, потому что в ближайшие месяцы Google будет не раз обновлять алгоритм Пингвин. А вот алгоритм Панда, направленный на борьбу с контентом низкого качества, переживает сейчас лишь незначительные апдейты.

Вложение 5543

Об этом рассказал на конференции SES в Сан-Франциско глава подразделения Google по борьбе с веб-спамом Мэтт Катс (Matt Cutts).

Технически, по заявлению Катса, Пингвин это не столько фильтр, сколько «усовершенствование» алгоритма, которое не дает сайтам так хорошо «выезжать» на спаме, как это было раньше. В особенности это касается некоторых тактик создания ссылочной массы, которые раньше позволяли поднять авторитетность страницы в глазах поисковика.

Напомним, алгоритм Панда был запущен еще в 2011 году и его цель – борьба с некачественным контентом. Каждый последующий апдейт Панды был похож на повторные толчки после основного «землетрясения».

А вот алгоритм Пингвин ведет себя по-другому. По словам Катса, это потому, что он более новый, а значит, ему еще предстоит немало серьезных апдейтов, пока он не станет таким же отточенным, как Панда. В комментарии для издания Search Engine Roundtable Катс добавил, что пока при каждом апдейте программные инженеры Google внедряют в алгоритм Пингвин дополнительные сигналы, и это приводит к сильной встряске выдачи. Поэтому, предупреждает Мэтт, от апдейтов Пингвина пока не стоит ожидать просто обновления данных.

До сегодняшнего дня Google было представлено лишь одно серьезное изменение Пингвина (редакция Searchengineland решила назвать его Пингвин 1.1, а не Пингвин 2.0, потому что Google заявил, что апдейт повлияет лишь на 0.1% всех результатов поиска).