Ужас, а не скрипт. Это как с игрушечным автоматом идти на войну. Алгоритм определения заспамленности смешен.
Есть разница между 1. Кол-во страниц в индексе и кол-во ссылок на сайте и 2. Кол-во страниц в индексе и кол-во проидексированных ссылок на сайте ???
Почему сайты с одинаковым кол-вом страниц и с одинаковым кол-вом ссылок живут в индексе разное время. Почему сайт с кол-вом ссылок меньше, чем на другом, выпадает раньше, хотя кол-во страниц на сайтах одинаково? Потому что заспамленность, к счастью, определяется не соотношением кол-ва страниц к кол-ву ссылок.
С одной страницы сайта ссылка может работать, а с другой страницы сайта может не работать.
Есть сайт. 2 страницы, не считая главной. На 1й странице 10 ссылок. на 2й - 2 ссылки. на главной нет. На 3 страницы 12 ссылок. В среднем, получается что по 4 ссылки со страницы. Ужос - заспамлен сайт. Вопрос: почему с 1й страницы ссылка может работать, когда со 2й не будет работать и наоборот?
Любой новостной сайт можно отнести в категорию заспамленных, а говносайт за 1 доллар будет просто божьим одуванчиком и мечтой для афроаптимизатора.
з.ы. кому нужны незаспамленные сайты (соотношение кол-во страниц в индексе к кол-ву внешних ссылок) - в сапе есть кнопка "добавленные за последние 3 дня"
предлагаю к разработке скрипт, который будет приводить файл sitemap.xml с кириллическими ссылками к стандарту. Запускаться либо в ручную(cron) на сервере, либо ( лучше?) - через форму на сайте - загрузил файл - сохранил перекодированный
Asin,программа yazzle может парсить беки из Я.Webmaster, но тут проблемма, вебмастер показует 1000 беков, а не все... Например Внешних ссылок на страницы сайта - 5000, заходишь в список, а на 40 странице списка "Показаны первые 1000 из 5000 сайтов."
Последний раз редактировалось oleg_ug; 02.07.2011 в 14:13. Причина: убрал рефку