Если мы все разом уберём Метрику сбор инфы прекратиться и выдача зачахнет что-ли?
У яшки не один десяток инструментов для сбора данных о пользователях. Простой пример - яндекс бразуер, тулбары и прочие. Все это помогает собрать максимум инфы о юзерах и их поведении.
Seopublic, Все именно так и будет. Яндекс не будет разбираться почему на сайте человек мало проводит времени - из за того, что сайт полу-ГС или из-за того что там все сделано для того, чтобы пользователь за 10 секунд получил нужную информацию. Вопрос еще вот в чем: я вот вчера искал отели в одном городе, там более 40 сайтов разных отелей. Я просмотрел штук 15-20 примерно по минуте-две (и таких посещений на таких сайтах большинство - посмотрел место на карте, фото номера, цену) и как же быть в этой ситуации? Ведь сайты почти одинаковые, запросы у большинства одинаковые, время которое посетители будут проводить на сайте тоже примерно равно. Как же тут быть? Как правило такие сайты легко оптимизировать ( там всего 4-6 страниц) контента туда пихать не будешь каждую неделю - что там писать-то?
Итого: сайты продвигаются по одинаковому запросу, внутреннее оптимизированы, тексты тоже примерно одинаковые и контента тут загружать каждый день не будешь, время на сайте примерно одинаковое. Сайтов 40 мест в выдаче 10 - как ранжировать?
В легенде продвижения одними поведенческими есть одно но. Возьмём к примеру сайт такси. Главная задача сайта в этом случае это донести номер такси до пользователя и ещё какую нить информацию. Среднее время нахождения посетителей на этом сайте будет не более 10 секунд. Такси хорошее, и про него написано 350 отзывов. Но яндекс не будет брать во внимание эти ссылки, останутся только плохие ПФ. И сайт никогда не будет в топ 3. На вопрос яндекса, что делать, он ответит развивать и наполнять сайт, что бы пользователям было там удобно. Т.е. я, как владелец автопарка, должен создать там форум, галерею, обсуждения аварий, новости, полезные статьи. Сделав из простого сайта визитки - таксопортал.
Притом на качество услуг, предоставляемых этим автопарком, это никак не повлияет. Поправьте, если что то я не понимаю.
Вы какой то бред несете. Для каждой группы и подгруппы запросов есть своя часть форму ранжирования. Часть из них отвечает за ПФ, так вот они берут средние показатели (типа идеальный сайт ) по схемам ПФ и подгоняют сайты к ней. В данном подходе, если ты на сайте нагоняешь ПФ и ставишь время по 5 минут, то ты сам себя подставляешь, но ПФ это не то, что вы думаете. Там все сложнее. Простым языком математическая модель. (как говорят учит мат часть)
Вы какой то бред несете. Для каждой группы и подгруппы запросов есть своя часть форму ранжирования. Часть из них отвечает за ПФ, так вот они берут средние показатели (типа идеальный сайт ) по схемам ПФ и подгоняют сайты к ней. В данном подходе, если ты на сайте нагоняешь ПФ и ставишь время по 5 минут, то ты сам себя подставляешь, но ПФ это не то, что вы думаете. Там все сложнее. Простым языком математическая модель. (как говорят учит мат часть)
По вашему, если сделаю сайт лучше чем у всех конкурентов, то у меня просядут позиции? А где же мотивация быть лучше? Ваши доводы от части верные, но когда вы говорите о ПФ как о нечто паранормальном, вы забываете, что ПФ это то, что само собой разумеется. Я делаю СДЛ с нормальным дизайном, где пользователям нравиться, и все остальные факторы подтягиваются, и мне как владельцу бизнеса не нужно разбираться в тонкостях формулы ранжирования.
Среднее время нахождения посетителей на этом сайте будет не более 10 секунд. Такси хорошее, и про него написано 350 отзывов. Но яндекс не будет брать во внимание эти ссылки, останутся только плохие ПФ. И сайт никогда не будет в топ 3.
Погуглите про матрикснет, вы заблуждаетесь в своих суждениях.
grazer,Яндекс - пипец, загадочный зверек. Пример первый: "Генеренный сайт", 2000 страниц. В индексе Яндекса много лет почти все страницы. Второй пример: "Сайт новостей на 100% копипасте из нескольких сайтов" - в индексе давно и прочно. Пример третий: "Сайт новостей на качественном ручном рерайте" - Все тексты очень грамотно написаны. Это не простой рерайт 1 статьи в 1, а творческий - материал даже для одной статьи берется из разных источников и грамотно вручную создается 1 статья. Результат - в индексе 1 страница. И, что самое обидное, больше 1 страницы Яндекс никогда не включал в индекс, хотя робот пробежался и по остальным. И как это понимать?
то в рунете сейчас примерно 1,6 млн. активных сайтов. Если взять две ссылочные биржи хотя бы – Sape и MainLink, сложить, получится около 1,5 млн. сайтов. Если их вычесть из общего количества, получится, что остается всего 150 тысяч сайтов, которые не участвуют в линкоторговле. Это настолько мало, что отключив влияние ссылок, Яндекс оставит себе только 150 тыс. сайтов. Из них вряд ли получится построить нормальную выдачу.
Со всем известного форума.
Так что можно оставаться спокойным, все влияние ссылок не смогут нивелировать.
то в рунете сейчас примерно 1,6 млн. активных сайтов. Если взять две ссылочные биржи хотя бы – Sape и MainLink, сложить, получится около 1,5 млн. сайтов.
Да, но это именно сайты, которые продают ссылки. Нормальные, полезные порталы зарабатывают на трафике и ссылками редко торгуют, к тому же из всех сайтов в сапе хорошие позиции имеют только некоторые, а остальные просто ссылочные фермы. Так что топ выдачи и так состоит из очень маленького (по сравнения с общим количеством сайтов) числа порталов, СМИ и сайтов коммерческой тематики. Я думаю, что яндекс может убить выдачу, чтобы привлечь рекламодателей в Дирикт.
Вот мне другое не ясно разговор ведется о сайтах которые уже в топе . Да ПФ итп допустим будит играть ключевую роль для занятия позиции в выдаче . А как быть тогда с новыми сайтами ? если учесть то что до 3 итд страницы выдачи ,пользователи вовсе не заходят то выходит что сайты за 3 страницей выдачи вовсе обречены ....? Что то тут не то как то оно иначе работать будет ..
Последний раз редактировалось Gradus; 09.12.2013 в 17:02.