Ссылочки с качественных сайтов!

(Ответов: 6, Просмотров: 774)
  1. Banned
    • Регистрация: 02.05.2011
    • Сообщений: 760
    • Репутация: 321
    • Webmoney BL: ?
    В общем такая задача:
    Есть сайт (точнее говоря - интернет-магазин), в нём товаров 10.000 шт. Соответственно примерно 12.000 страниц.
    Какие есть программы для того, чтобы собрать все страницы, исключив часть на лету по robots и по маскам.
    В одщем даже данные не нужны для анализа. Нужно просто собрать ссылки в список для скармливания в АДДурилку.

    p.s. XENU не предлагать.. Эта зараза на сайте в 10.000 товаров нашла 70.000 страниц. При этом украла два часа времени, и сделала только 15% от запланированного, работая в 5 потоков. Больше 8 потоков ацки грузят VDS.

    p.p.s. SEOFROG - в бесплатной версии тоже многое не учитывает и хавает всё вподряд.
    • 0
  2. Гуру Аватар для efr07
    • Регистрация: 19.01.2011
    • Сообщений: 722
    • Репутация: 85
    • Webmoney BL: ?
    для таких целей пользуюсь программой WonderWebWare.com SiteMap Generator, он тоже robots анализирует (лично у меня закрытых от индексации нет, сказать об исключении по robots на лету точно не могу, но должен поддерживать). Выдает полный перечень ссылок на страницы
    • 0
  3. Banned
    • Регистрация: 02.05.2011
    • Сообщений: 760
    • Репутация: 321
    • Webmoney BL: ?
    Попробуйте audit.megaindex.ru пока бесплатно сможете проиндексировать все страницы.
    • 0
  4. Дипломник Аватар для saiiika2010
    • Регистрация: 16.08.2011
    • Сообщений: 100
    • Репутация: -8
    Сontent Downloader могу сделать за смешную какую нибудь копеечку, если результат устроит)
    • 0
  5. Super Moderator Аватар для Демиург
    • Регистрация: 09.06.2011
    • Сообщений: 2,212
    • Репутация: 1782
    • Webmoney BL: ?
    На seobudget.ru (реф) есть услуга "Добавить страницы в аддурл" (или как-то так). Там ссылки можно парсить с учетом sitemap и robots. И добавить в аддурилку (платно). Но спарсить можно бесплатно. Частенько пользуюсь этим сервисом.
    • 0
  6. Banned
    • Регистрация: 02.05.2011
    • Сообщений: 760
    • Репутация: 321
    • Webmoney BL: ?
    А стоит ли скармливать такое количество страниц в аддурилку
    • 0
  7. Опытный Аватар для fasin
    • Регистрация: 25.09.2010
    • Сообщений: 272
    • Репутация: 32
    • Webmoney BL: ?
    Советую попробовать Wonderwebware Sitemap Generator. В этой программе можно задавать шаблоны исключаемых страниц как в robots.txt, высокая скорорость работы. Также можно использовать старый GSiteCrawler. Работал с A1 SitemapGenerator - на мой вкус бестолковая вещь, несмотря на то что она платная, плюс очень долго сканирует и нагружает сервер.
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
Как скрыть ссылочки :)
Вопросы от новичков 1 27.10.2009 18:37

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры