vovasit91,Если я правильно понял, то "к «трастовым» стали относить вообще все профиля, внешние ссылки с которых попадали в индекс поисковых систем". Иными словами, "трастовым" называют любой УГС, который в любую секунду может уйти в АГС, который и так под фильтрами ПС, но который еще кое-как индексируется ПС, и ссылки с него могут попасть в индекс этих самых ПС? Если да, то кто вам сказал, что тот же Яндекс учитывает эти ссылки? Кто сказал, что с таких сайтов передается вес тИЦ? Мне кажется, что само слово "трастовый" придумали продавцы баз, чтобы побольше втюхать своих подборок генеренных форумов и УГС. Как по мне - "трастовый" - это старый сайт с большим естественным тИЦ по вашей тематике, который высоко ценится поисковой системой.
ТС, на самом деле не все так просто как было обозначено вами в данной статье. Данная методика актуальна только в том случае, если ваш девиз - возьму количеством, а не качеством. Уже около 1,5 лет занимаюсь сбором трастовых баз (за это время спарсенно и обработано более 250 К сайтов), кроме обозначенной вами методики использовал еще 4 методики. Так вот, возвращаясь к вашей методике, могу сказать следующее: разумеется она имеет ряд преимущества перед другими способами, но также и большой недостаток. Начну с плюсов: 1. Не сложно найти отправную точку для парсинга (профили, которыми уже двигаются чьи-то сайты) С одного крупного трастового сайта получается спарсить около 100-1000 профилей, которые можно взять за основу для сбора базы (за день получалось спарсить 10000-20000 уникальных сайтов, в профилях которых можно разместить свою ссылку); 2. Спарсенные профили не нужно проверять на закрытие страниц в роботс, так как парсим непосредственно страницу профиля. 3. Большинство базы после автоматического отсева по приведен вами и прочим критериям является рабочей, по которой сразу можно осуществлять прогоны.
А теперь огромная ложка дегтя: *Уже более полугода занимаюсь сбором баз и прогонами только под Google.com (USA), так что обозначенные минусы будут, прежде всего, касаться Google, но общий смысл, думаю до сих пор применим и к Яндекс. 1. Огромная заспамленность сайтов, собранных таким образом. Приведу статистику на примере тех же 10-20К сайтов, которые были спарсенны вашим способом за 1 день: из них при проверке на заспамленность было добавлено в базу около 20-30 сайтов, так как уровень заспамленности данных ресурсов просто зашкаливал. Да и не мудрено это, так как данные сайты уже известны не только вам, но и другим пользователям. Не могу сказать по Яндексу, но для Google большого эффекта от прогона по таким сайтам ждать не стоит, скорей даже наоборот, неоднократно наблюдался значительный откат по позициям, причем не временного характера. Даже если и исключить фактор заспамленности сайтов в базе и его влияние на продвижение, то из заспамленности вытекает следующий не особо приятный для нас момент - если сайт на самом деле качественный, то рано или поздно администрация поймет, что такая огромная активность регистраций неактивных в будущем пользователей совсем не означает рост популярности ресурса, а наоборот. Тогда же они, в лучшем случае, просто удалят профили или закроют их от индексации, в худшем, могут стукануть на особо активных спамеров (но сам лично с этим не сталкивался). И поверьте мне, за 1-3 месяца с подобных заспамленных баз приходится отсеивать от 10 до 50% базы. Также из заспамленности вытекает еще один неприятный момент - загонять в индекс каждый последующий профиль становится трудней и трудней (видел сайты, на которых текстового контента не более 1-2 К страниц и около 1 000 000 профилей). Я думаю на этом можно остановиться, надеюсь основная суть понятна. О ТиЦ же я не могу сказать ничего, так как меня всегда интересовали прогоны с позиции продвижения ключевиков. Может для ТиЦ метод обозначенный ТС отлично подойдет.
Чистка у меня занимает чуть более 2 минут!
У меня чистка новой базы занимает не менее 1 недели, обычно месяц. Просто для отбора сайтов я использую более 20 критериев, из которых около 10 можно проверить только ручками
ТС, я не в коем случае не хочу показать, что ваша статья не о чем или что-то подобное, нет, она однозначно будет полезна для новичков. Но все не так просто как вами обозначено.
Если я правильно понял, то "к «трастовым» стали относить вообще все профиля, внешние ссылки с которых попадали в индекс поисковых систем"
В том-то и дело, что в рунете почему-то понятие траста очень сильно извратили, читая ветки форумов о прогонах по трастовым сайтам складывается впечатление, что траст в современном понимании большинства прогонщиков отождествляется с размером ТиЦ или PR ресурса, что в корне не верно, ведь ТиЦ и PR можно нагнать и обычному сателлиту, но после этого он не станет трастовым сайтом.
Огромная заспамленность сайтов, собранных таким образом.
что и следовало ожидать))) Кстати интересно тут есть два типа людей: 1.Находят трастовую площадку 2.Находят ссылки тех, кто нашел трастовую площадку)))
Не проще ли было "придумать" метод поиска трастовых площадок.
ЗЫ:
Мне кажется неправильно определяется "бесполезность ссылки". Ведь время, когда ссылка проиндексировалась разное: когда исходящих ссылок/входящих было менее единицы когда их было более единицы
Очень понравилась статья! Еслибы можно то поставил бы 10 списиб) Пара вопросов! 1. Если я продвигаю сайт по ВЧ запросу, то может введя этот ВЧ запрос взять сайты из топ и мониторить их ссылки?? Будет толк? 2. Где лучше использовать базы полученные таким методом, в XRumere, Allsubmitere или ещё где?
Статья понравилась, для меня лично палево однозначное. Только углядел одну особенность. В начале ТС предлагает взять какой-либо, получается, трастовый сайт, куда люди спамят. Потом найти спамный профиль с названием сайта. Найти ссылки с сайта, из них выбрать, опять же, трастовые. Получается замкнутый круг, где взять первый трастовый сайт, если знаешь только этот метод. Как новичку попасть внутрь этого круга, чтобы начать там крутиться