Как я могу загрузить страницы, на которые ссылаются мной, в виде HTML-файлов?

2016
void

У меня есть много закладок (гитарных аккордов песен), сохраненных в Google Chrome, а также хорошая программа под названием XMarks. Она прекрасно работает, но одна проблема в том, что некоторые старые веб-страницы удаляются, поэтому я хочу сохранить локальную копию. из них. И я не хочу

for(i=0; i<infinity; i++) { open page; right click; save page; etc; } 

Так есть ли программное обеспечение или расширение для браузера, которое позволяет мне загружать все страницы закладок?

(PHP-скрипт или аналогичный может также работать, я просто хочу файлы, и я хочу иметь возможность делать это регулярно) Спасибо за любую помощь!

Редактировать: И я хочу сохранить структуру папок в качестве папки закладок тоже.

Изменить 2:: я не пытаюсь экспортировать свои закладки. Я пытаюсь сохранить каждую страницу, на которую ссылаются мои закладки (спасибо за редактирование заголовка), поэтому мне нужна программа, которая открывает все мои закладки, нажимает Ctrl + S и сохраняет ее (надеюсь, с той же структурой папок, что и мои закладки). ) посмотрите мою маленькую шутку кода выше :)

Редактировать 3: «Спасибо за любую помощь!» означает, что я не принижаю никаких ответов, так как есть намерение помочь.

4

2 ответа на вопрос

6
Sparr

Export your bookmark list as HTML, then use wget to download every page linked to, and all of the images and scripts necessary to display those pages:

wget --recursive --level 1 --page-requisites --convert-links --force-html --input-file bookmarks_7_7_14.html 

--level 1 limits the recursive downloading to following one link, from your bookmarks page to the bookmarked website.

--page-requisites means to download the files required to display each page (images, styles, javascript, etc).

--convert-links will change the links to relative ones that work locally if the files are downloaded (images etc) and will change the links to absolute ones (links to other pages) if they aren't.

--force-html will tell wget to treat the input file as an html page rather than a list of URLs.

If you do this repeatedly, some further care will need to be taken to avoid overwriting old downloads with new downloads.

NOTE: This will only download the page you have bookmarked, not other pages on the same site. More complex solutions would be required if you want to mirror some or all of the target sites, and more complex still if you want to be picky about which ones get mirrored how much.

и где я должен запустить эту команду? в командной строке? Могу ли я превратить это в PHP-код? Потому что на самом деле мне нужен «автоматический» способ для этого. Так как мой список закладок постоянно меняется. void 11 лет назад 0
да. wget доступен для большинства операционных систем и является программой командной строки. Sparr 11 лет назад 0
@void, вы можете просто выполнить exec ('wget ...') в php, если хотите продолжать использовать wget. вам, вероятно, придется что-то сделать, чтобы загруженные файлы помещались в доступный для записи каталог и т. д. Sparr 11 лет назад 0
Вместо использования PHP я бы порекомендовал создать запланированное задание (windows) или cron (linux, osx) или launchd (osx), которое запускает команду wget по расписанию. Sparr 11 лет назад 0
ой. я не читал твой код он принимает bookmarkfile.html в качестве входных данных. так что это, наверное, то, что я ищу. Большое спасибо ! void 11 лет назад 0
Самый простой способ получить wget для Windows - воспользоваться инструментарием [GOW] (https://github.com/bmatzelle/gow), хотя есть и отдельные дистрибутивы wget. Journeyman Geek 11 лет назад 0
@Sparr, еще раз спасибо. Я должен был пойти внезапно, теперь я вернулся, я попробую wget в Windows CMD. Но мне интересно, это сохранит структуру папок? Есть ли какие-либо аргументы для достижения этой цели? void 11 лет назад 0
@JourneymanGeek: GOW содержит wget 1.11.4, который является древним. Зачем беспокоиться, когда wget 1.14 доступен уже несколько месяцев? Karan 11 лет назад 0
простота использования, в основном. Я установил gow на большинство моих систем просто потому, что он устанавливает кучу инструментов в стиле nix по пути, поэтому они работают так же, как и в Linux Journeyman Geek 11 лет назад 0
1
JackLock

If you want to download some pages of actual site then you will need some tool to copy a website. One free tool that I use frequently is httrack

But if you Google you will probably find number tools that does similar things... some are free some are paid.

Похожие вопросы