Часть 2: Тестирование спорных параметров для отсева плохих доноров.
Часть 3: Фильтрация ссылок после их покупки.
Выводы
Бонусы
Вступление Ни для кого не секрет, что сапа просто пестрит сайтами плохого качества. Если грамотно отсеивать некачественные доноры, вы можете сэкономить приличные деньги. Все параметры, которые я буду описывать ниже вы можете проверить при помощи знаменитого плагина Винка.
Все фильтрации происходят из заявок при покупке в полуавтоматическом режиме. Все ниже изложенное - это не четкие правила, я просто описываю как это делаю я и это у меня работает.
Часть 1: Явные параметры для фильтрации доноров.
1. [Cn].
Выставляем менее 40 страниц в индексе Яндекса. Таким образом мы отсеиваем сайты под АГС. Не так давно делал анализ одной сетки (более 100 сайтов), которая практически полностью попала по фильтр АГС. Из анализа было четко заметно, что под АГС у сайтов зачастую в индексе сохраняется до 40 страниц.
Также ставим не менее 40 страниц в Google и разницу количества страниц в Яндексе и Google в 100 и более раз. Это будет отсеивать доноры с неравномерной индексацией.
Почему разница между поисковиками в 100 раз? Я тестировал этот параметр, и заметил, что даже если поставить разницу в 20-30 раз, то под такой фильтр может попасть много хороших сайтов, а параметр 100 отсеивает явные ГС. Ссылки после данной фильтрации можно вносить в GBL, ведь мы отсеиваем самые плохие доноры. Но имейте ввиду, что проверка идет по данным сапы, а у нее зачастую неверные цифры. Периодически проверяйте корректно ли работает данный фильтр.
2. [LF].
Для более качественной работы данный пункт необходимо разделить на 2 части: параметры для занесения в GBL и параметры для отмены.
В GBL можно смело заносить сайты, в URL которых содержатся:
Porno – адалт, порно
Warez - варезники
Topic – топик форума
Forum - форум
Некоторые параметры в URL не могут отвечать за качество всего сайта. Например, это:
Tag - теги
Foto – галерея фоторгафий
Add – форма добавления статьи, пресс-релиза, чего-то другого
Price – прайс.
И другие…
Нам не нужны ссылки с таких страниц, но почему бы не купить ссылки с другой страницы этого сайта? Именно поэтому доноры с подобными урлами просто идут на отмену, а не заносятся в GBL.
Внимание. Данный параметр имеет погрешность, под него могут попадать и хорошие сайты. Например, если у сайта доменное имя uporno-abrakadabra.ru, то это не значит, что это плохой сайт и его сразу же нужно заносить в GBL. Но в тоже время абсолютное большинство сайтов с параметром porno все же будут тематики адалт, на которых не желательно покупать ссылки (только если у вас не адалт-сайт). Таким образом, приходится жертвовать небольшой частью доноров ради автоматизации.
3. [TF].
Чуть выше вы видите слова, которые характеризуют тематику или тип сайта (отдельной страницы) на котором не желательно покупать ссылки.
В данном пункте, как и с [LF] нужно разбить все параметры на те, которые отфильтровывают доноров для GBL и те, после которых нужно отказаться без занесения в GBL. Кроме своего списка советую использовать встроенные наборы стоп-слов.
Также по аналогии с фильтром [LF] отмечу, что фильтр [TF] имеет погрешность, но мы жертвуем небольшим количеством хороших доноров ради автоматизации отсева плохих.
4. [ВС].
В этом пункте у нас много параметров.
4.1 В пункте отмечать ссылок больше чем … я ставлю либо 2, либо 4 в зависимости от внутреннего фильтра сапы; 4.2 Как правило, если на странице менее 1000 – 1500 символов, то это ГС. Аргументы излишни, можете сами выставить этот параметр (только без других, чтобы они не мешали) и посмотреть какие доноры попадут под него. Чуть ниже ставим «не учитывать анкоры ссылок при расчёте объема текста»; 4.3 Ранее у меня стояло не более 150 внутренних ссылок, теперь опустил планку до 100. Внутренние ссылки также как и внешние крадут вес со страницы, поэтому не рекомендую покупать ссылки на страницах, где много внутренних; 4.4 Отфильтровываем недоступные страницы. Предложений много, зачем покупать ссылку на странице, которая даже недоступна.
5. [УВ].
Если у вас в фильтре сапы стоит покупка только со страниц 2-го уровня вложенности, то вам еще нужно запустить проверку параметра [УВ] и отменить размещение на страницах 3-го и большего уровня.
После этого проверяем такие явные параметры, как: -индексацию страницы в Яндексе [YP]; -сохранённую копию [YC] (бывает, что страница в индексе, но без сохранёнки, что может говорить о низком качестве и скором выпадении страницы из индекса); -индексацию страницы в Google [GC].
Также рекомендую отсеивать страницы со старой сохраненной копией в Яндексе. Подобное явление говорит о том, что сайт редко посещается роботом Яндекса и вам придется очень долго ждать индексации своей ссылки.
Последний раз редактировалось Realtim; 15.06.2011 в 18:10.
Часть 2: Тестирование спорных параметров для отсева плохих доноров.
Я провёл тестирование несколько менее популярных и очевидных параметров. Для начала немного терминологии, которая будет идти ниже.
«Хорошие» доноры - сайты прошедшие фильтры: • [Cn] (страниц в Я и G не менее 40, соотношение Я/G или G/Я не более 100), • [LF] (около 140 параметров), • [BC] (ВС<=2, внутренних<100, контента>1500 симв), • [TF] (более 100 параметров), • [YP] (наличие страницы в индексе Яндексе) • [GC] (наличие страницы в индексе Google)
После данных фильтраций донор с большей вероятностью будет хороший, чем плохой.
«Плохие» доноры - это те, которые попали под фильтр [Cn] (страниц в Я и Г менее 40, соотношение Я/G или G/Я более 100). Среди таких очень много АГС-ников, о качестве которых говорить не приходится.
Для тестирования параметров я сделал выборку более 5 000 ссылок по 4 разным фильтрам сапы. Далее разбил первоначальную выборку еще на две: «хорошие» доноры и «плохие» (их определение см. чуть выше).
Итак, среди 5 000+ ссылок оказалось 720 плохих доноров и 200 хороших (остальные нельзя назвать плохими или хорошими, я бы их не покупал, но и в GBL тоже не отправлял бы).
Эти 2 выборки – хорошие и плохие и использовались для тестирования спорных параметров, о которых пойдет речь ниже.
1. [Т] – трафик на сайт.
1.1.Alexa Rank. Выставил параметр «более 10 000 000», под который должны были попасть самые ГС.
Результаты:
Вывод: как видим, среди хороших доноров процент попадания под данный фильтр даже больше, чем среди плохих. Это говорит о плохой работе параметра Alexa Rank (или о некорректной работы этого параметра) для отсева плохих доноров.
1.2. SEMrush Вряд ли на нормальном сайте будет менее 100 человек в месяц (это всего 3-4 человека в сутки), именно поэтому я решил отфильтровывать такие доноры. Если не было данных по сайту в SEMrush.com, то такой донор не отфильтровывался.
Результаты:
Вывод: Процент попадания под фильтр среди хороших доноров больше, это связано с низкой точностью оценки трафика для сайтов рунета от SEMrush.com. Данный параметр не годится для отсева плохих площадок.
1.3. LiveInternet Отфильтровывал те сайты, где месячная посещаемость менее 100 человек, при этом сайты, на которых статистика ЛИ не была доступна не отмечались.
Результаты проверки:
Вывод: чётко видно, что среди плохих доноров больше попало под этот фильтр, значит данный параметр можно использовать для отсева плохих площадок.
Примечание: параметр LiveInternet будет иметь погрешность, т.к. если на сайте мало посетителей, это не значит, что ссылка передаст маленький вес, но в тоже время это с большей вероятностью будет ГС.
2. Проверка донора на фильтр «Ты последний» через seolib.ru Для начала необходимо указать свой логин и пароль на seolib.ru во вкладке «внешние сервисы»:
Далее нажимаем кнопку [FL] и наслаждаемся проверкой. Проверка платная (баланс пополнять на seolib). Спрашивал у seoib как проверяется данные параметр, вот их ответ:
Проверка на фильтр "ты последний" ищет различными способами уникальные значимые части текста проверяемого сайта и проверяет находится ли сайт в Яндекс по этим частям.
Вроде как работает параметр для отсева плохих площадок. Но в тоже время я случайным образом выбрал 20 доноров, которые не попали под "ты последний" и проверил их вручную. Брал любой участок текста (без знаков препинания), искал его в Яндексе в кавычках.
Результат ручной проверки: только 9 из 20 сайтов находится под "ты последний" - не ищутся по тексту в кавычках, или присутствует в результатах "показать все без исключения".
Можно предположить, что данный параметр работает для отсева плохих доноров, но в то же время seolib не всегда правильно определяет есть ли фильтр "ты последний".
Вывод: делайте сами, параметр можно использовать, но вы рискуете сократить количество хороших доноров.
3. Подвальные ссылки. Миф это или нет, что ссылки из подвала сайта могут передавать меньше веса, чем аналогичные из других мест на странице?
Я проверил на «подвальность» 2240 ссылок от 5 проектов в сапе. Проекты старые и в данный момент поддерживаются. Не менее 80-90% основных ключевых запросов в топе Яндекса и Google.
Проверяется тем же параметром ВС. Для проверки подвальности не забываем исключить все остальные параметры в фильтре ВС (откл. проверку внешних ссылок нельзя, поэтому я поставил там астрономическое число):
Как результат, из 2240 ссылок 950 оказалось из подвала, что составило 42,4%. При этом ключевые запросы прекрасно сидят в топе.
Вывод сделаете сами, не буду здесь навязывать свое мнение.
4. Внешние ссылки на донорах, которые стоят в <noindex>, но без nofollow
Тут внизу Яндекс пишет, что noindex используется для запрета индексации контента, а атрибут nofollow - для запрета индексации ссылок. Получается, что если ссылка стоит в noindex, но без nofollow она индексируется и крадет со страницы ссылочный вес.
Детально данный параметр не тестировал.
Запускал проверку [ВС] (только внешних ссылок) первый раз просто так, второй - с учетом внешних в noindex.
Далее выборочно смотрел руками там, где большое различие. Много не смотрел - около 2 десятков. Как правило - это счетчики, ссылки на "партнеров" и т.п. Чтобы лучше проанализировать тут нужно вручную проверять сотни сайтов и делать заметки какие и как много ссылок находится в noindex.
Noindex тестил в течении 4 месяцев (учитывал ссылки в noindex при определении количества ВС), разницы не заметил, только позиции просели, а лучше не стало. Убрал недавно, пошел нормальный закуп, позиции растут.
5. Другие параметры
Кроме вышеупомянутых параметров для отсева в плагине Винка еще существует проверка внешних ссылок по данным Bing или Solomono – [В]. Данный параметр проверяет не корректно и порой с большой погрешностью, поэтому я им не пользуюсь.
Также существует фильтр [Н], который проверяет наличие сайта в индексе Яндекса. Не использую его потому, что уже есть проверка [Сn] и проверка индексации + сохранёнки самой страницы, где покупается ссылка.
Часть 3: Фильтрация ссылок после их покупки.
Нужно проверять индексацию купленных ссылок в Яндексе и Google [YL]. Я проверяю через 45 дней:
Ранее проверял спустя 30 дней, но как показала практика, последнее время сроки индексации новых ссылок увеличились.
Также после размещения ссылок можно проверять параметр [HL] – скрытые ссылки. По заявлениям известных seo-аналитиков такие ссылки передают вес, но лично мне не приятно когда мои ссылки прячут от пользователей.
ВЫВОД.
Полезные параметры для отсева некачественных доноров: • Количество страниц в Яндексе и Google, их соотношение; • Наличие «черных» параметров в URL донора; • Наличие стоп-слов в тексте страницы донора; • Внешние ссылки со страницы, где покупается ссылка; • Объем текста на странице; • Количество внутренних ссылок; • Недоступность страницы; • Уровень вложенности страницы в случае, если вы хотите купить ссылки только на 2-ом уровне вложенности. • Индексация страницы в Яндексе и Google; • Наличие сохраненной копии страницы в Яндексе и её актуальность; • Трафик на сайте по данным LiveInternet; • Проверка индексации ссылки в Яндексе и Google.
Бесполезные: • Трафик на сайте по данным Alexa Rank или SEMrush; • Подвальные ссылки; • Внешние ссылки в <noindex>, но без nofollow; • Проверка внешних ссылок по данным Bing или Solomono (т.к. данные определяются с большой погрешностью); • Проверка индексации сайта в Яндексе (становится бесполезным после проверки Сn, YAP и YAC).
БОНУСЫ В качестве бонуса даю несколько параметров для фильтра [LF]:
work .php?vac_id= vac_id job vacancy resume desk board doska topic warez soft file film book
И для фильтра [TF]:
crack keygen pixel-sitemap-link depositfiles letitbit turbobit Ifolder rapidshare vip-file sms4fIle и много-много слов из адалт-тематики
Сайты с данными параметрами я отправляю в GBL. Всего же я использую для фильтра LF почти 140 параметров и более 100 параметров для фильтра TF. Всего у меня от пришедших заявок подтверждается примерно 2 - 6%. Ссылок купить можно достаточно для продвижения любого сайта.
Последний раз редактировалось Realtim; 15.06.2011 в 19:21.
достоин, только вот не у каждого хватает силы воли прочитать столько много букаф :), а короче тут нельзя написать иначе будет не совсем понятно или тема не будет раскрыта до конца.
Realtim, Читаем правила: Общие правила форума Запрещено: 19. Просить поддержать, проголосовать или как-нибудь иначе поучаствовать в повышении популярности в рейтингах, конкурсах и т.п.
Спасибо за информацию, весьма подробно и полезно. Я только установила плагин, настроила, но столкнулась с тем, что нигде не написано КАК С НИМ РАБОТАТЬ - не настраивать, такой информации масса, а как фильтровать площадки.. Подскажите, плз, 2 вопроса возникло: 1. Как (какой кнопкой) проверить "количество текста на странице" Оптимизатору - в настройках указала не менее 1000символов, но не могу найти где тыцать, чтобы увидеть результат проверки. На форуме Sape нашла ответ Wink: "..в колонке левее был бы показан объем текста на странице и размер самой страниицы." Но все равно неясно - как запустить эту проверку. 2. Как запустить отсеять все неподходящие площадки одной кнопкой - "Wink на форуме Sape: И зачем включать фильтры по отдельности если можно сразу указать все параметры страниц, которые нам не подходят, и отсеять их все за один проход?" Я нашла только одну кнопку "Fn" фильтр пользователя - но при нажатии на кнопку ничего не происходит, хотя настроила плагин согласно рекомендаций. Помогите разобраться, пожалуйста.