DanteS, выше вы писали мяхко говоря пугалку по инструкциям яндекса, будет важено новичкам которые покупают ссылки не руками а жопой...
А когда у вас все в поряде со всем остальным, то ссылки являются невероятно важным фактором от которого не куда не деться. Теже самые ссылки помогут вашему сайту подняться не только в яше но и гугле что даст вам повышенный ПФ в целом. А фильтров бояться в лес не ходить....
Раньше по тулсу, теперь вместе с текстовым. Во всяком случае - так логично, потому как документ не индексируется отдельно по кускам. Ну, если нет каких-то запретов со стороны вебмастера, разумеется.
Сообщение от hammer8
Апрейды ПФ
Честно говоря, не совсем хорошо изучал методу Мовебы:) Знаю, что хороший фидбек по ПФ Яндекс сейчас получает посредством многорукого бандита. Но есть хорошая статья на тему ПФ.
Сообщение от Exinor
А когда у вас все в поряде со всем остальным
Ну вы же понимаете, что покупка ссылок в ее привычном контексте как раз и рассматривается, как "ничего, кроме ссылок":)
---------- Сообщение добавлено 02:18 ---------- Предыдущее 02:12 ----------
Сообщение от ruprogon
Как по вашему ПС выявляет вечную ссылку в статье или ссылку с прогона, если переспам в пределах "нормы"?
Это хороший вопрос. На самом деле, для обучения какого-то нужного алгоритма/фильтра, нужна выборка. Для ее получения, сотрудники антиспама поисковых систем делают ровно то же, что и оптимизаторы - добавляют свои сайты в сервисы по накрутке ПФ, покупают те же ссылки - вечные или нет, неважно. Можно сделать выгрузку, можно посмотреть профили уже наказанных сайтов.
Главное то, что в отделе антиспама сидит человек, который мыслит так же, если не продуктивнее. Поэтому обучить алгоритм отлавливать даже самые чистые вечные ссылки очень даже можно.
Другая сторона - это интенсивность, чувствительность самого фильтра. По сути - для оптимизатора-линкбилдера важно это. Может в это обновление ссылочной "нормой" считалось 20 ссылок, а в следующую - 5.
Ссылки сегодня нужно брать аккуратно и вдумчиво, не доверяя особо заявлениям сервисов по продаже ссылок и продвижению сайтов, ведь это их бизнес как можно больше разместить ссылок и больше продать услуг по продвижению, затратив при этом минимум ресурсов и времени. А ссылки, как работали, так и работают хоть в Яндексе, хоть в Гугле, не один раз проверял и убеждался в этом на практике.
Надежный и отзывчивый VPS Хостинг для серьёзных проектов.
Касаемо вопроса, как ПС выявляет покупные ссылки, я, вроде, ответил. Как не допустить значимый порог вхождения, я, увы, не знаю, т.к у меня нет даже приблизительных основ технологий работы ссылочных антиспам-алгоритмов.
Можно, конечно, бесконечно предполагать, что ссылка с анкором "купить" негативно влияет на ссылочный профиль, но в то же время и безанкорная ссылка может послужить катализатором для фильтров.
Имея минимальные знания в области информационного поиска, можно подумать в таком ключе:
1. Существует так называемый эффект блуждающей обезьянки (об этом методе ранжирования ссылок еще Расковалов рассказывал, когда презентовал свой кворум). Возможно ли рассчитать ее действия методом вычета каждого действия заранее? Можно. А как? А вот кто знает, тот и знает.
2. Метод сортировки на "плохой/хороший". Вот здесь уже можно анализировать на основе инфы из того же руководства вебмастера. Показатель качества: Вики - хороший сайт? Но ведь у него большое количество исходящих ссылок. Но там есть невероятное множество полезного контента. Значит исходящие ссылки - не есть критерий для определения сайта как неполезного? Разумеется. Но почему Вики ранжируется хорошо, несмотря на то, что у нее есть ссылка на комм. сайты, а сайт Васи Петечкина залетел под АГС?
Здесь нам нужно смотреть опять же на качество контента, его представление пользователю. Не уникального, а качественного (добавочная ценность, оригинальность и пр.).
Итак, мы знаем, что классификатор имеет в обучающей выборке фактор, который позволяет ему при превышении порога исходящих/входящих ссылок на ресурсе с неоригинальным контентом пометить сайт, как некачественный, и выбросить его из индекса/не ранжировать высоко.
Это просто пример того, как можно высчитывать факторы Матрикснета, определять их веса/роли в непосредственном применении. У Гугл, я полагаю, ситуация похожая.
Резюмируя: для ПС возможно создавать большие данные по вечным seo-ссылкам, ссылкам из прогона, супер-вечным тематическим ссылкам, которые есть в Яках и Дмозах, имеющие высокий тИЦ. Все эти показатели совершенно неважны, если донор уже есть либо в базе, либо подходит по критериям продажного/покупающего ссылки ресурса.
Я постараюсь написать отдельный пост на тему ссылочных, текстовых, поведенческих факторов ранжирования, где и когда веса имеют большее/меньшее значение. Но чуть позже, сейчас очень много работы+некоторые параллельные бесплатные проекты для самообразования :)