Лучший подход к архивированию сайта периодически

236
Balaji Natarajan

Я работаю над подходом к периодическому (динамически генерируемому) архивированию нашего веб-сайта (скажем, каждый месяц) и сохранению его версии, чтобы я мог вернуться и перетащить страницу через определенный период времени.

Мой первоначальный подход состоит в том, чтобы рекурсивно сканировать сайт и фиксировать его в репозитории Subversion, чтобы я мог использовать историю Subversion и функцию экспорта.

Есть ли другое оптимальное решение, которое использует как можно меньше места? Кроме того, я не уверен, сколько времени займет фиксация подрывной деятельности всего сайта, поэтому также требуется более быстрое решение.

0
Есть ли что-то плохое в простом создании архива сайта в формате gzipped на регулярной основе? Пространство не должно быть главной проблемой при создании резервных копий. slhck 11 лет назад 1
Почему бы вам просто не поместить сам сайт в систему контроля версий, а когда вы вносите изменения, обновлять развернутый сайт из своего хранилища? Der Hochstapler 11 лет назад 2
@OliverSalzburg Я должен был упомянуть в вопросе. Сайт генерируется динамически. Balaji Natarajan 11 лет назад 0
Если у меня есть готовый к просмотру архив, я бы предложил [wget] (http://www.gnu.org/software/wget/) и предложение архивировать вывод. Doktoro Reichard 11 лет назад 0
Dyanamically генерируемые статические страницы? Если так, то динамически генерируемый не имеет значения. Разархивированный тарбол за слак и задание cron. Если динамический во время выполнения, то снимок базы данных и стандартный источник контроля ToddB 11 лет назад 2
Subversion (или любой другой инструмент системы контроля версий) для статических исходных файлов, вероятно, является лучшим решением. Добавьте к этому файлы конфигурации для программного обеспечения. Фактически сгенерированный контент не важен, вы всегда можете его воссоздать. И посмотреть, что изменилось, когда SVN идеален. Так что, я думаю, вы уже ответили на этот вопрос. Hennes 11 лет назад 0

1 ответ на вопрос

1
user254060

Use 7zip on a cron job to periodically zip with recursive and a datetime stamp - then test and mv to a fail-over cluster - always test your backup periodically or else you will have corrupt data and not find out until its critical. I believe you can use a 7zip test switch as well. We've been using this approach for 7 years with mission critical data and zip 16 times a day with no failures whatsoever.

Похожие вопросы