Google готовится постепенно заменить ссылочное ранжирование принципиально новым алгоритмом Knowledge-Based Trust (КВТ), основанным на сопоставлении фактов, оценки степени релевантности понятий пользовательскому запросу и правдивости информации, представленной на сайте. Представители поиска опубликовали документ в формате PDF, в котором приводится подробное описание нового алгоритма ранжирования. Документ изобилует формулами и вычислениями, на которых, предположительно, будет выстроен новый алгоритм ранжирования.
Knowledge-Based Trust представляет собой альтернативный принцип ранжирования страниц в поисковой выдаче, основанный не на анализе ссылочной массы страницы и присвоении ей показателя авторитетности, а на точности совпадения описываемых на странице реалий с поисковым запросом и объективности информации, представленной на ресурсе.
«Традиционно качество веб-источника оценивалось на основе анализа внешних сигналов, таких как определение структуры гиперссылок. Теперь же мы предлагаем новый подход, основанный на исследовании эндогенных сигналов на сайте, таких как корректность фактической информации. Ресурс, на котором будет обнаружено минимальное количество ложных фактов, будет признаваться надежным», - сообщается в документе.
В документе также сообщается, что для оценки фактической составляющей ресурса алгоритмы Google будут извлекать информацию со страницы и сопоставлять её с данными «Сети Знаний» (Knowledge Graph) или Knowledge Vault («Хранилища знаний») и присваивать больше значимости страницам, информация на которых будет совпадать с фактической базой Google. В случае, когда на конкретной странице сайта будет обнаружено недостаточное количество правдивой информации, с точки зрения Google, алгоритм будет анализировать другие страницы ресурса с тем, чтобы окончательно убедиться в его достоверности.
По заявлению инженеров Google алгоритм КВТ хорошо показал себя в условиях полевых испытаний. «Мы применили его к 2,8 млрд. фактов, извлечённых из интернета, и смогли с высокой точностью выявить степень достоверности 119 млн. веб-страниц на 5,6 млн. веб-сайтов», - сообщается в документе.
Запуск нового алгоритма Knowledge-Based Trust, призванного оценивать качество фактической информации на странице, по замыслу разработчиков, должен стать новой эпохой во всей истории Google. И все же, алгоритм может быть применён далеко не ко всем сайтам - его действие будет распространяться лишь на ресурсы, публикующие фактический материал. Об этом также сообщают разработчики.
ох, уже сюда добралась эта новость, типа той фигни где по цвету спор был.
Во-первых там написано что далеко не для всех сайтов будет этот алгоритм. То есть если у вас сайт по какой-то игре и вы написали там какое-то руководство, то откуда гугла знать насколько оно информативно полезно и точно? Я думаю этот алгоритм в первую очередь ударит по статейникам с коими гугл уже давно ведет борьбу. Так что советую внимательно прошерстить свои проекты(особенно по мед и фин тематикам). Во-вторых они еще тестируют его и как правильно на диджиталпойнте писали что хорошие ссылки все равно останутся.
Мне кажется этот алгоритм вообще еще сырой, и не понятно как это будет происходить. «Хранилища знаний» - это наверное будет просто использоваться Википедия)
И все же, алгоритм может быть применён далеко не ко всем сайтам - его действие будет распространяться лишь на ресурсы, публикующие фактический материал
Алгоритм судя по всему для инфо сайтов.
И вообще, предположим, что обе страницы в полной мере ответили на запрос пользователя...
Сообщение от Razor
Ресурс, на котором будет обнаружено минимальное количество ложных фактов, будет признаваться надежным
количество ложных факторов на обоих ресурсах минимально. Стоит вопрос - какую страницу поставить наверх? Мне лично пока ответ не ясен.
Думаю, что так и будет - хотя, что значит - "хорошие"? Основа интернета - ссылки и так и будет. Google старается потихоньку "нагнуть" в свою сторону и навязать свои правила - взять хоят бы https - зачем он на ресурсах, которые не проводят тразакционной персонифицированной информации? А тут смотрим про дальнейшие разработки и намерения гугла - введение своих стандартов и внедрение своих правил - не суть важно, насколько они правильны - как застрельщики и как те, кто долее всех вплотную этим занимается+ресурсно-интеллектуальная база - они по-любому не будут внедрять и продвигать то, в чем не будут иметь каких-то преимуществ - как в кратко так и очеть долгосрочной перспективе - о которых они, понятно, не будут рассказывать широкой публике. Сейчас то же самое по мобильным вопросам - хотя многие серьезные ресурсы не слишком этим заморачиваются - ибо сложно не потерять в качестве при переводе к адаптированному представлению (примеры приводить не буду, найти их несложно). Навязывание и диктование своих правил, доминирование - основа и цель, чем бы ни была прикрыта. Такс казать - неявное "мягкое управление". Другие ПС тоже не дремлют - и при существенном неодобрямс пользователей (то есть, снижения востребованности ппщду и дохода), они этим воспользуются и гугл быстро скорректирует свою позицию по многим вопросам, думается. Сказать, что это фантазии? - и до гугла и после будут поисковики, и до него были те, кто стоял очень прочно. Как только профит гугла начнет снижаться - вот и посмотрим)
В общем - не нужно суетиться - терпение всегда оправдывается. Посмотрим, пусть волну поднимают.
P.S. Писем понапосылали - сайт не соответствует мобильности (не совсем), хотя почти все адаптивны - то шрифт, то элементы...