Почему весь сайт не загружен?

546
Zaz

Я попытался сделать копию сайта wiredhealthresources.netс помощью команды:

wget -rpkl inf wiredhealthresources.net 

Но команда загрузила только 54 файла! Большинство страниц отсутствуют, например /topics-cardiology.html, несмотря на то, что они связаны с/index.html

Что я сделал не так? Почему wgetне скачивается весь сайт?

1
Хотя я не могу ответить на сам вопрос, я бы посоветовал попробовать [HTTrack] (http://www.httrack.com/page/1/en/index.html), так как у меня был больший успех в этом. Sam3000 7 лет назад 0

2 ответа на вопрос

4
Nathan

Если вы посмотрите на источник страницы, вы не увидите никакой topics-cardiology.htmlссылки, потому что боковая панель генерируется JavaScript. Вам понадобится JavaScript-браузер без головы, такой как CasperJS, чтобы создать полное зеркало.

Ааа! Имеет смысл. Я должен был проверить источник. Спасибо! Zaz 7 лет назад 0
Знаете ли вы хороший сценарий CasperJS для зеркалирования сайта? Я изо всех сил пытаюсь найти один. Zaz 7 лет назад 0
-1
Warley

Я вполне уверен, что вы не можете использовать infопцию для изменения глубины, только для изменения попыток или запроса. Вы пытались использовать -mвместо -rи -l? Похоже, вы хотите отразить страницу, и это то, что -mиспользуется для.

Использование `-l 99` и` wget -pkm` дает одинаковый результат: загружено только 54 файла. Страница man говорит, что `-m` эквивалентно` -r -N -l inf --no-remove-list`, откуда я и получил `-l inf`. Zaz 7 лет назад 0

Похожие вопросы