Если URL выглядит так:
https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz
Превратите это в:
$wget https://projectName.googlecode.com/files/yourFILE.tar.gz
Это прекрасно работает для меня.
У меня есть проект Google Code, в котором есть много вики-документации. Я хотел бы создать копию этой документации для просмотра в автономном режиме. Я хотел бы использоватьwget
или подобную утилиту.
Я пробовал следующее:
$ wget --no-parent \ --recursive \ --page-requisites \ --html-extension \ --base="http://code.google.com/p/myProject/" \ "http://code.google.com/p/myProject/"
Проблема в том, что ссылки внутри зеркальной копии имеют такие ссылки:
file:///p/myProject/documentName
Такое переименование ссылок таким способом вызывает 404 (не найденных) ошибок, поскольку ссылки указывают на то, что они не действительны в файловой системе.
Какие варианты я должен использовать вместо этого wget
, чтобы я мог сделать локальную копию документации сайта и других страниц?
Если URL выглядит так:
https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz
Превратите это в:
$wget https://projectName.googlecode.com/files/yourFILE.tar.gz
Это прекрасно работает для меня.
После долгих тренировок мне удалось заставить работать на меня следующее:
$ wget --no-parent \ --recursive \ --page-requisites \ --html-extension \ --convert-links \ -E -l 3 \ http://code.google.com/p/myProject/
Результат полностью автономен, сейчас.