我在腳本中使用Python和Boto從本地磁盤複製多個文件,將它們轉換爲.tar文件並上傳到AWS Glacier。使用Python Boto和Amazon Glacier concurrent.ForcurrentUploader保證數據完整性?
我根據我的腳本: http://www.withoutthesarcasm.com/using-amazon-glacier-for-personal-backups/#highlighter_243847
它使用concurrent.ConcurrentUploader
我只是好奇,我有多大的把握可以是數據都是在冰川成功後獲得一個ID後面? concurrentUploader是否執行任何類型的散列檢查以確保所有位都到達?
我想從我的本地磁盤中刪除文件,但擔心我應該實施某種散列檢查...我希望這是發生在引擎蓋下。我試過併成功檢索了一些檔案,並能夠解除焦油。只是要非常小心。
是否有人知道是否有檢查引擎蓋內的所有傳輸成功上傳?如果沒有,有沒有人有任何python示例代碼如何實現與散列檢查上傳?
非常感謝!
博託併發上傳文檔: http://docs.pythonboto.org/en/latest/ref/glacier.html#boto.glacier.concurrent.ConcurrentUploader
UPDATE: 望着實際寶途碼(https://github.com/boto/boto/blob/develop/boto/glacier/concurrent.py)線132似乎表明散列自動計算的,但我不清楚是什麼的
[None] * total_parts
的意思。這是否意味着哈希值確實被計算出來,還是留給用戶來執行?