Я бы начал с использования WGET для архивирования сайтов в том виде, в каком они есть (в формате html), после чего конвертация в PDF проста.
См. Http://www.tufat.com/s_html2ps_html2pdf.htm и http://www.gnu.org/software/wget/.
Возможный дубликат:
Как я могу скачать весь сайт
Три различных блога, которые я прочитал, недавно объявили, что они будут прекращены и удалены из сети. Хотя заархивированные страницы, вероятно, будут храниться в кеше Google в течение нескольких недель после того, как они исчезнут, а некоторые страницы будут находиться на компьютере возврата, я хотел бы заархивировать эти сайты на моем жестком диске для дальнейшего использования.
Каков наилучший способ сделать это? Есть ли программное обеспечение, которое превращает блог (например, Blogspot) в хронологический PDF?
Я бы начал с использования WGET для архивирования сайтов в том виде, в каком они есть (в формате html), после чего конвертация в PDF проста.
См. Http://www.tufat.com/s_html2ps_html2pdf.htm и http://www.gnu.org/software/wget/.