Возникла необходимость получить список url страниц сайта.
Есть сайт нужно получить его структуру.
Возможно у кого-то есть бесплатный или условно бесплатный сервис для краулинга сайта. Желательно что бы можно краулить сайты с 1000+ страницами.
Переформулирую.
Нужен сервис-паук который пройдет по сайту и соберет все URL адреса страниц.
И другая проблема.
Нужен сервис что бы получить URL адреса из выдачи гугла.
Возможно кто-то знает способ как быстро получить URL адреса всех страниц которые находятся в основном индексе гугл?
Переформулирую.
На запрос site:example.com гугл выдаст n-ное количество страниц. Нужно получить URL Адреса всех страниц.
Буду очень благодарен за помощь!)
- 10.08.2015 17:12
- 10.08.2015 17:40
Вам поможет Content Downloader - http://sbfactory.ru/?p=600
Спасибо сказали:
Андрей Вегера(10.08.2015), - 10.08.2015 17:46
Есть программа бесплатная netspider, и платна screeming frog Они собирут всю инфу с сайта и не только страницы.
Спасибо сказали:
Андрей Вегера(10.08.2015), - 10.08.2015 18:19
Даже не знаю как я мог раньше работать без netspider и Content Downloader!!))
Спасибо огромное! - 13.08.2015 23:38
Пользуйтесь Netpeak spider, Xenu.
- 17.08.2015 14:09
Добрый день!
Воспользуйтесь программами:
Screaming Frog
Netpeak Spider
Xenu - 17.08.2015 17:17
Приветствую!
Воспользуйтесь программами:
Xenu
Screaming Frog
Netpeak Spider
А, еще Content Downloader забыл, да
Тэги топика:
Похожие темы
Темы | Раздел | Ответов | Последний пост |
---|---|---|---|
Парсинг выдачи с помощью Слово'ба | Общие вопросы поисковой оптимизации | 16 | 14.01.2015 18:27 |
парсинг выдачи Яндекс НЕ через xml | Web программирование | 2 | 26.11.2014 15:13 |
Составление СЯ на НЧНК ключах, бесплатный парсинг Wordstat и выдачи | Услуги по SEO | 20 | 27.06.2014 16:07 |
Готовый контент и структура сайта для сайта по СРО (40 текстов) | Ссылки, статьи | 1 | 16.01.2013 16:01 |