Синхронизация с s3cmd зависает при получении списка удаленных файлов для ...
778
Eldamir
Как часть решения для резервного копирования, я использую s3cmd для передачи загрузки файлов.
У меня четыре разные работы с каталогами разных размеров и файлами разных размеров.
Три из рабочих мест работает просто отлично. Последняя работа, однако, висит на сообщении:
Retrieving list of remote files for <...>
И когда я говорю, что это зависает, я имею в виду, что это не идет дальше. Так стояло целую неделю на 100% стабильном офисном интернет-соединении.
Теперь каталог, который он пытается загрузить, большой. Около 306GB. Это, безусловно, самая большая из рабочих мест.
Я видел сообщение о StackOverflow с проблемой, аналогичной (не идентичной) этой проблеме, и в принятом ответе говорилось, что нужно отредактировать .s3cfg и установить большее значение socket_timeout. Я изменил его с 10 до 180, но это не имело значения.
Есть идеи, что попробовать дальше? Я потерпел неудачу в поиске.
2 ответа на вопрос
0
Eldamir
Решением этой проблемы было для меня прекратить использовать s3cmd и начать использовать вместо него инструмент aws.
вместо s3cmd sync ..., я сейчас использую aws s3 sync .... Это работает как шарм. Хотелось бы, чтобы я никогда не сталкивался с s3cmd.
0
ClearCrescendo
Поскольку каталог назначения становится большим, время для получения списка md5 и размера данных увеличивается.
Для меня так же большие резервные копии выполняют этот шаг менее чем за двадцать минут. Я заметил, что для socket_timeout установлено значение 300.
Вы также можете избежать сканирования md5 каждого файла в целевой корзине, используя --no-check-md5, но я не нашел в этом необходимости.