Какие методы резервного копирования следует использовать в двухэтапном плане резервного копирования? (ПК на NAS в облаке)

360
anlag

Я нахожусь в процессе настройки того, что, я надеюсь, будет разумным, избыточным решением для резервного копирования для моего дома. У меня есть ноутбук с двойной загрузкой (Ubuntu и Windows) и домашний NAS. Идея состоит в том, чтобы настроить программное обеспечение резервного копирования в каждой ОС для резервного копирования на NAS, а затем выполнить резервное копирование NAS в облачное хранилище.

В основном это документы и фотографии, я думаю, общий объем составляет от 50 до 100 ГБ. Возможно, позже будут добавлены другие устройства, аналогичные тем, которые я делаю. Помимо размещения этих резервных копий, NAS также будет содержать большой репозиторий цифровых фотографий, который также должен быть включен в облачное резервное копирование.

Начнем со спины: мне вполне комфортно с идеей запустить скрипт резервного копирования с локального Raspberry Pi (у меня его уже несколько), используя двойственность для резервного копирования соответствующих каталогов NAS в хранилище Backblaze B2 с шифрованием GPG. сделано на стороне клиента - во многом по тому же принципу, что и детали этого блога:

https://msol.io/blog/tech/dirt-cheap-client-encrypted-online-backups-with-raspberry-pi/

Это дало бы мне зашифрованные данные на стороне клиента, передачу данных с эффективным использованием полосы пропускания, и я надеюсь, что надежный облачный сервис по хорошей цене Вероятно, я бы хотел, чтобы регулярные полные резервные копии избегали чрезмерно длинных цепочек резервных копий, но не уверен, что двуличность справится с этим сама, или мне нужно разрешить это в моем сценарии, но я думаю, что справлюсь.

Где я больше не уверен, как обрабатывать, это этап PC-to-NAS. Я начал с Ubuntu, встроенного в Deja Dup, но, понимая, что двуличность тоже используется в качестве бэкэнда, мне интересно:

Имеет ли смысл использовать что-то вроде двуличия на обоих этапах двухуровневого решения для резервного копирования? Меня беспокоит то, что в случае необходимости восстановления из резервных копий в облаке мне нужно будет выполнить восстановление дважды, что может быть неэффективным или, что еще хуже, менее надежным в случае, если один поврежденный файл в любой цепочке резервного копирования может испортить ситуацию. Это разумное беспокойство?

Если это так, что может быть лучше? У меня была идея просто выполнять еженедельную (или любую другую) rsync от Ubuntu до NAS, поэтому у NAS просто есть копия 1: 1, и шаг NAS-to-cloud может обработать всю хитрость восстановления с разных дат, шифрование и все остальное.

Недостатком этого может показаться эффективность на первом этапе, когда мне придется копировать много данных каждый раз, когда я делаю резервную копию. Возможно, с помощью опции rsync --link-dest будет работать жесткая привязка к любым существующим файлам, а не копирование их снова, но я не уверен, будет ли это надежным или даже работать с резервным копированием второго этапа с помощью дублирования.

Я понимаю, что этот вопрос слишком длинный и запутанный, но я потратил некоторое время на размышления о тонкостях того, как сделать это хорошим способом, и почувствовал, что должен был спросить в конце. Если вы прочитали это далеко, спасибо. Если у вас есть хоть какая-то мудрость, спасибо еще больше.

0
Без обид, но чтение вашего поста действительно заставляет меня задуматься о том, почему кому-то нужно быть настолько «дешевым», что они разработают слишком сложную идею с более высоким риском потери данных. Ваша заявленная цель - сделать резервную копию документов и фотографий. Это легко сделать всего за 5-20 долларов в месяц, если не меньше. Многочисленные устройства NAS или облачные сервисы хранения могут справиться с этим за вас. Конечно, установка Linux может быть немного более сложной, но, безусловно, есть сервис по разумной цене, который работает и в Linux. Я рад, что вы учитесь и экспериментируете, но вы получаете то, за что платите. Appleoddity 6 лет назад 0
Должен ли я понимать ваш комментарий как предположение, что двухэтапная схема резервного копирования всегда плохая идея из-за сложности, которую она добавляет? Или что такая схема должна быть реализована только с коммерческим программным обеспечением? Возможно, у меня не было четких приоритетов: я хотел бы создать две резервные копии, одну локальную и одну удаленную. Поскольку у меня уже есть NAS (старый, неуверенный в поддержке встроенных облачных вычислений и предпочитающий аппаратно-независимые решения), общая идея сначала сделать резервную копию, а затем создать резервную копию NAS в облаке, казалась концептуально простой идеей. Если есть лучшие, я все уши. anlag 6 лет назад 0
Я не говорю, что резервные копии плохие. Когда вы используете сложность того, что вы настраиваете для достижения этой цели, вы рискуете что-то пойти не так и узнаете слишком поздно. Это похоже на план экономии денег. Существует множество систем NAS и облачных решений для резервного копирования, которые делают это действительно простым. Я использую Google Drive в одиночку. Весь мой диск Google синхронизируется с жестким диском на локальном компьютере, а все остальные мои компьютеры синхронизируются непосредственно с диском Google. Это две резервные копии, плюс у меня есть история версий файлов, журналы изменений и доступ экземпляров к файлам через веб-приложения и мобильные приложения. $ 10 / мес. Appleoddity 6 лет назад 0
Спасибо за ваш отзыв. Я предполагаю, что главная цель моего вопроса состояла в том, чтобы свести эту сложность к минимуму, все еще выполняя мои цели. Экономить деньги приятно, но не важно, это больше вопрос правильного расчета. Ваш пример настройки аккуратный и практичный, но не совсем то, что я имею в виду. Я предполагаю, что у вас нет шифрования на стороне клиента, и включение в моем случае данных только для NAS (репозиторий изображений) также добавит дополнительный шаг (хотя, конечно, выполнимый). anlag 6 лет назад 0

1 ответ на вопрос

1
ede

Anlag,

вы правы. ваши настройки избыточны. Duplicity упаковывает резервную копию Duplicity на ваш второй шаг.

то, что вы, вероятно, хотите

  1. легко доступные резервные копии на сайте (простые файлы, желательно снимки, чтобы вы могли восстановить только что удаленный файл со вчерашнего дня)
  2. зашифрованная резервная копия вне сайта, поэтому ваши данные защищены от шпионских глаз

, я бы предложил

  1. запуск простых резервных копий (например, rsync) на NAS (используйте btrfs для моментальных снимков, если у него достаточно мощности, иначе используйте rsync w / --link-dest)
  2. использовать двуличность для резервного копирования их на удаленный

..ede / duply.net

Большое спасибо, это звучит как направление, которое я направлял, сформулировано в этом гораздо меньшем количестве слов. btrfs - отличное предложение, и Netgear, очевидно, включает его в свою ReadyNAS OS 6, но, к сожалению, мой NAS слишком стар для поддержки этой ОС. Так что я верю, что буду реализовывать «простое» резервное копирование с ПК на NAS с ночной rsync (--link-dest) в качестве первого этапа. Есть ли какая-то причина, по которой вы можете иногда запускать без --link-dest? Учитывая, что он использует жесткие ссылки и не должен быть инкрементным, я думаю, что нет, но ... anlag 6 лет назад 0

Похожие вопросы