Синхронизация с s3cmd зависает при получении списка удаленных файлов для ...

778
Eldamir

Как часть решения для резервного копирования, я использую s3cmd для передачи загрузки файлов.

У меня четыре разные работы с каталогами разных размеров и файлами разных размеров.

Три из рабочих мест работает просто отлично. Последняя работа, однако, висит на сообщении:

Retrieving list of remote files for <...> 

И когда я говорю, что это зависает, я имею в виду, что это не идет дальше. Так стояло целую неделю на 100% стабильном офисном интернет-соединении.

Теперь каталог, который он пытается загрузить, большой. Около 306GB. Это, безусловно, самая большая из рабочих мест.

Я видел сообщение о StackOverflow с проблемой, аналогичной (не идентичной) этой проблеме, и в принятом ответе говорилось, что нужно отредактировать .s3cfg и установить большее значение socket_timeout. Я изменил его с 10 до 180, но это не имело значения.

Есть идеи, что попробовать дальше? Я потерпел неудачу в поиске.

1

2 ответа на вопрос

0
Eldamir

Решением этой проблемы было для меня прекратить использовать s3cmd и начать использовать вместо него инструмент aws.

вместо s3cmd sync ..., я сейчас использую aws s3 sync .... Это работает как шарм. Хотелось бы, чтобы я никогда не сталкивался с s3cmd.

0
ClearCrescendo

Поскольку каталог назначения становится большим, время для получения списка md5 и размера данных увеличивается.

Для меня так же большие резервные копии выполняют этот шаг менее чем за двадцать минут. Я заметил, что для socket_timeout установлено значение 300.

Вы также можете избежать сканирования md5 каждого файла в целевой корзине, используя --no-check-md5, но я не нашел в этом необходимости.