На форуме начали поднимать темы про граббинг сайтов из веб-архива. Меня эта тема заинтересовала и я решил погуглить данный вопрос.
В итоге нашел скрипт, который вытягивает сайты из вебархива + исправляет ссылки. То есть, на выходе получается полностью рабочий сайт, который можно залить на хост и все будет работать.
Имя скрипта: Webarchive Grabber 0.95 Beta Подробнее здесь.
Вопрос: кто-то пользовался скриптом? Все-таки скрипт платный и прежде чем покупать, хотел бы услышать отзывы.
не пользовался, думаю не стоит его покупать, если бы он вытягивал те сайты (страницы) которых уже нет в индексе или искал бы уник контент и с разных сайтов тянул на один было бы гуд
А там есть выбор какую версию сохраненного сайта скачивать? не которые домены не одного владельца сменили и не один движок, получиться каша если он просто всю сохраненную информацию скачает.
так если в вебархиве залито 10 страниц, он только 10 и вытащит. разве нет? толку от такого скрипта?
10 и вытащит все правильно, откуда он возмет то чего нет :) толк в том что он url переделывает в статические и то не понятно правит он линки в коде или так на чрез вебархив и идут они.