Как полностью загрузить веб-страницу, сохранив ее функциональность?

575
Skeleton Bow

Я пытался сохранить эту веб-страницу, используя все известные мне методы, но пока ни один из них не работал. Сам сайт обладает отличной функциональностью. Он способен отображать MathJax в режиме реального времени, без каких-либо заметных задержек. Я хочу иметь возможность использовать его в автономном режиме, поэтому я хотел сохранить его. Я не был очень успешным. Я на MacOS. Вот что я пробовал до сих пор:

  1. Сохранить как в Safari как веб-архив (.webarchive) - не сохраняет функциональность страницы
  2. Сохранить как в Safari как источник страницы (.html) - страница полностью испортила
  3. HTTrack - не сохраняет функциональность веб-страницы
  4. Сохранить как на Chrome как веб-страницу, завершить (.html) - испортит макет и функциональность
  5. WebDumper - выдает ошибку «Запрещено»
  6. itsucks - портит веб-страницу вверх
  7. SiteSucker - портит веб-страницу вверх
  8. ScrapBook (Firefox) - портит
  9. Несколько других вещей, которые я не могу вспомнить больше.

Я просто хочу сохранить сайт и иметь возможность использовать его в автономном режиме. Однако я заметил кое-что интересное. Когда я в Safari и выхожу в автономный режим, веб-страница работает нормально. Это, несомненно, означает, что веб-страница может работать без проблем в автономном режиме - мне просто нужен способ сохранить ее правильно. Я полагаю, что я мог бы создать виртуальную машину, загрузить на нее сайт, а затем сохранить его в виде снимка и использовать его всякий раз, когда я хочу отключиться, но это кажется довольно непропорциональным решением для такой, казалось бы, простой проблемы.

На стороне записки: это было бы возможно, чтобы сохранить веб - страницу, как этого (iPhone 6S страницы) со всеми прокрутки анимации, встроенные изображения и видео и все остальное? Я только пытался создать веб-архив с использованием Safari, но он сохранил только красивую анимацию прокрутки, а не встроенные изображения и тому подобное.

2
Это практически невозможно из-за всего кода, который выполняется на любой странице, кода, который извлекает изображения и ресурсы из сотен других мест, не находящихся на их веб-сервере. Я использую Chrome и сохраняю как (один файл) MHTML, но не всегда получаю все, но мне кажется, что он лучший. Moab 8 лет назад 1
Вы можете попробовать wget из командной строки. Он будет загружать целые веб-сайты, но вы можете настроить его, чтобы загрузить только то, что вы хотите. sdjuan 8 лет назад 0
Проблема, которая в конечном итоге не может быть решена, - это код, выполняющийся на сервере. Большинство сред выполнения веб-приложений исполняют код по HTTP GET и POST, и этот код никогда не передается клиенту; только его вывод. То, что вы хотите сделать, возможно только в том случае, если сайт написан для выполнения полностью на стороне клиента (обычно через javascript) и не использует внешних данных. Frank Thomas 8 лет назад 0
@FrankThomas спасибо за понимание. Единственное, потому что веб-сайт может работать отлично, когда я отключаю Интернет, разве не должно быть возможно запустить его без подключения к Интернету и сохранить его? Это то, что я продолжаю думать. Skeleton Bow 8 лет назад 1
@sdjuan, к сожалению, wget не работает. Работает ли это для вас? Skeleton Bow 8 лет назад 0
уверен, работает для меня. «не похоже на работу» не дает много чего продолжить. Вот начало страницы руководства с терминала на моем Mac: WGET (1) GNU Wget WGET (1) NAME Wget - неинтерактивный сетевой загрузчик. ОПИСАНИЕ wget [опция] ... [URL] ... ОПИСАНИЕ GNU Wget - бесплатная утилита для неинтерактивной загрузки файлов из Интернета. Он поддерживает протоколы HTTP, HTTPS и FTP, а также поиск через прокси HTTP. sdjuan 8 лет назад 0
@sdjuan сожалею об этом. Я на самом деле очень неопытный с терминалом, и я решил Google "Wget" онлайн. Первый открывшийся веб-сайт позволил вам ввести адрес, а затем вывести текст HTML веб-страницы. Эйзен сохранил это как файл HTML, а затем продолжил открывать его в Safari, и это было в значительной степени испорчено. Вы предлагаете мне использовать терминал вместо? Я не уверен, смогу ли я сделать это, потому что я так мало знаю об этом. Тем не менее, вы говорили, что вы действительно преуспели в этом, и я хочу попробовать… Skeleton Bow 8 лет назад 0
С помощью wget вам, возможно, придется написать его, чтобы загрузить вещи, которые являются просто ссылками на странице. Не весь контент является локальным для сайта. Будьте внимательны в том, что вы просите, так как одна ссылка может привести к другой, и довольно скоро вам, возможно, придется скачать весь интернет http://www.w3schools.com/downloadwww.htm sdjuan 8 лет назад 0
@SkeletonBow Так как вы не разбираетесь в терминале, я отозвал свое предложение, так как wget может быть слишком сложным для вас. Извините, я не могу дать вам консервированный способ делать то, что вы хотите. Удачи sdjuan 8 лет назад 0
Давайте [продолжим это обсуждение в чате] (http://chat.stackexchange.com/rooms/38824/discussion-between-skeleton-bow-and-sdjuan). Skeleton Bow 8 лет назад 0
Аналогичный вопрос: http://superuser.com/questions/577102/save-website-conisting-javascript-after-it-was-interpreted That Brazilian Guy 8 лет назад 0
@ThatBrazilianGuy спасибо за ссылку. Я прочитал ответ, но, похоже, он не сработал :(. Это заставило меня выдернуть волосы! Skeleton Bow 8 лет назад 0
Я использую [Firefox MAFF] (https://addons.mozilla.org/en-US/firefox/addon/mozilla-archive-format) для сохранения страниц, которые будут отображаться идеально, но мне никогда не приходилось использовать его для сохранения страницы который запускает клиентские сценарии, поэтому он может быть не тем, что вам нужно. Во всяком случае, это удивительный инструмент и приятно иметь :) That Brazilian Guy 8 лет назад 0
@ThatBrazilianGuy все равно спасибо :) Skeleton Bow 8 лет назад 0

0 ответов на вопрос