Подскажите сервис типа twite.ru

(Ответов: 12, Просмотров: 2574)
Страница 1 из 2 12 Последняя
  1. Студент Аватар для Сашко
    • Регистрация: 22.02.2011
    • Сообщений: 61
    • Репутация: 0
    В общем такая задача:
    Есть сайт (точнее говоря - интернет-магазин), в нём товаров 10.000 шт. Соответственно примерно 12.000 страниц.
    Какие есть программы для того, чтобы собрать все страницы, исключив часть на лету по robots и по маскам.
    В одщем даже данные не нужны для анализа. Нужно просто собрать ссылки в список для скармливания в АДДурилку.

    p.s. XENU не предлагать.. Эта зараза на сайте в 10.000 товаров нашла 70.000 страниц. При этом украла два часа времени, и сделала только 15% от запланированного, работая в 5 потоков. Больше 8 потоков ацки грузят VDS.

    p.p.s. SEOFROG - в бесплатной версии тоже многое не учитывает и хавает всё вподряд.
    • 0
  2. Опытный Аватар для Seoumnik
    • Регистрация: 23.02.2011
    • Сообщений: 316
    • Репутация: 35
    • Webmoney BL: ?
    для таких целей пользуюсь программой WonderWebWare.com SiteMap Generator, он тоже robots анализирует (лично у меня закрытых от индексации нет, сказать об исключении по robots на лету точно не могу, но должен поддерживать). Выдает полный перечень ссылок на страницы
    • 0
  3. Software Engineer Аватар для Zvеr
    • Регистрация: 07.02.2010
    • Сообщений: 603
    • Репутация: 228
    • Webmoney BL: ?
    Попробуйте audit.megaindex.ru пока бесплатно сможете проиндексировать все страницы.
    • 0
  4. Студент Аватар для Сашко
    • Регистрация: 22.02.2011
    • Сообщений: 61
    • Репутация: 0
    Сontent Downloader могу сделать за смешную какую нибудь копеечку, если результат устроит)
    • 0
  5. Software Engineer Аватар для Zvеr
    • Регистрация: 07.02.2010
    • Сообщений: 603
    • Репутация: 228
    • Webmoney BL: ?
    На seobudget.ru (реф) есть услуга "Добавить страницы в аддурл" (или как-то так). Там ссылки можно парсить с учетом sitemap и robots. И добавить в аддурилку (платно). Но спарсить можно бесплатно. Частенько пользуюсь этим сервисом.
    • 0
  6. Дипломник Аватар для MBN
    • Регистрация: 28.07.2010
    • Сообщений: 147
    • Репутация: 26
    А стоит ли скармливать такое количество страниц в аддурилку
    • 0
  7. Опытный Аватар для Seoumnik
    • Регистрация: 23.02.2011
    • Сообщений: 316
    • Репутация: 35
    • Webmoney BL: ?
    Советую попробовать Wonderwebware Sitemap Generator. В этой программе можно задавать шаблоны исключаемых страниц как в robots.txt, высокая скорорость работы. Также можно использовать старый GSiteCrawler. Работал с A1 SitemapGenerator - на мой вкус бестолковая вещь, несмотря на то что она платная, плюс очень долго сканирует и нагружает сервер.
    • 0
  8. Гуру Аватар для vovka
    • Регистрация: 30.12.2009
    • Сообщений: 531
    • Записей в дневнике: 2
    • Репутация: 258
    В том-то всё и дело, что:
    1) Покупать программу ради одного сайта не целесообразно.
    2) Интернет-сервисы могут и "задосить" при таком кол-ве страниц мой маленький VDS.

    Сейчас экспериментирую с Wonderwebware - именно те маски, которые нужно задать он и поддерживает + robots. И похоже в нём даже экспорт в CSV имеется, что как раз и нужно.
    Только скорость работы, которую он показывает, чё-то у него совсем не айс - от 60 до 120 pages/min... Это на долго...
    И это с задержками по 1 секунде через каждые 500 url и по 1-й ms между запросами к серверу на 5 потоках.
    Мдя-я-я... Опять придётся на ночь ставить.
    Веду seo блог потихоньку и слушаю музыку для души...
    • 0
  9. Banned
    • Регистрация: 19.08.2011
    • Сообщений: 605
    • Репутация: 58
    madcap, а у Вас sitemap имеется? Я просто как раз пишу программку. Она может собрать все ссылки из sitemap и сохранить в текстовый файл (Это только часть функционала. Если нужно, напишите в ЛС адрес карты сайта, я попробую спарсить и скину ссылки.) А в аддурилку можете добавить с помощью того же WebM AddUrl

    ---------- Сообщение добавлено 22:49 ---------- Предыдущее 22:48 ----------

    Правда я не учитываю роботс.
    Последний раз редактировалось Igor_13; 19.08.2011 в 19:21.
    • 0

    Спасибо сказали:

    Seoumnik(04.09.2011),
  10. Дипломник
    • Регистрация: 07.01.2011
    • Сообщений: 135
    • Репутация: 14
    madcap, можно увеличить количество подключений Max. Simultaneous Connections, но аккуратно
    • 0

    Спасибо сказали:

    Seoumnik(04.09.2011),
Страница 1 из 2 12 Последняя

Похожие темы

Темы Раздел Ответов Последний пост
Сервис Twite.ru - кидалы!!!
Кидалы 78 20.01.2013 17:11
Подскажите сервис для Twitter
Софт, скрипты, сервисы 10 16.08.2011 00:45
Подскажите сервис сокращения ссылок
Социальные сети 4 15.11.2010 17:13
Подскажите Сервис Для Проверки Прокси
Софт, скрипты, сервисы 1 21.04.2010 20:53
Подскажите сервис
Вопросы от новичков 7 06.01.2010 05:54

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры