Прочитав в соседних ветках ..... здесь что сайт находится в архиве, причем имеет 24 копии)…
Так если попробовать восстанавливать с некоторых копий. Может то, чего не хватает в одном архиве - есть в другом. Вот и соберете сайт по кусочкам. Я думаю, так можно большую часть понаходить.
Тут и специальный софт не нужен, как я понимаю. Достаточно Teleport Pro или Offline Explorer. Ну или свой скрипт, который пробежится по сайту, соберет все внутренние сслыки, а потом выкачает страницы по этим ссылкам.
Я вебзипом для этих целей пользовался. А если сайт двухуровневый (пару раз такие малютки попадались) то обходился Fleshget плагином под ие. Он все ссылки позволяет со страницы как хтмл-файлы выкачать.
Dr.Gonzo, естественно потом лучше восстановить контент из архива, пока не создашь новый сайт или усовершенствуешь из архива. KeeperPro, наверное, не перехват, а "check", освобождающихся доменов.