Есть httrack для резервного копирования сайта?

458
Sathya

Я пытаюсь сделать резервную копию сайта с помощью httrack, но он не делает то, что я хочу.

Это продолжается уже 20 минут и загружает то, что выглядит как бессмысленные изображения и js-файлы с других сайтов. Страница, на которую я ссылался, была страницей «архива» со ссылкой на все страницы, которые я хотел бы. Когда я перехожу к папке и запускаю файл резервной копии html. Я вижу эту страницу, но все ссылки являются прямыми ссылками на оригинальный сайт. Похоже, что он не сохраняет страницы, на которые ссылается. (что он делал в течение последних 20 минут ....)

Как мне сказать httrack зайти на определенную страницу и сделать резервную копию всех страниц в этом домене, на которые ссылается эта страница?

1
Вы имеете в виду HTTrack (http://www.httrack.com/)? William Jackson 13 лет назад 0
@William: Да, спасибо, что заметили это! 13 лет назад 0
У меня никогда не было проблем с настройками по умолчанию. Можете ли вы опубликовать URL на сайте, который вы пытаетесь создать резервную копию? William Jackson 13 лет назад 0
@William: я пытался просканировать эту конкретную страницу http://www.2pstart.com/comic-archives/, но она не пыталась получить ссылки, на которые она ссылается (в том же домене). Он сохранил эту конкретную страницу с прямыми ссылками на комиксы и загрузил более 40 Мб с www.widgetbox.com, прежде чем я остановил ее. Это было> 1 часа на сканирование. 13 лет назад 0
Их каталог открыт, поэтому я могу получить комиксы. Теперь я хочу только текст для каждого http://www.2pstart.com/comics/ Я, вероятно, могу написать бота для текста через час, но страница не будет выглядеть круто или так же 13 лет назад 0

0 ответов на вопрос

Похожие вопросы