我可以使用boto.s3.resumable_download_handler和boto.s3.connection將非常大的〜2000個文件從s3存儲區下載到本地磁盤。下載並存檔到本地磁盤中的tar文件。有用。Nodejs:s3 getObject文件的下載和歸檔失敗數量非常大
我正在嘗試在nodejs中使用相同的功能: 如果我試圖使用s3 getObject和archive下載〜500個以下的文件。文件被下載並存檔到本地磁盤(使用nodejs)。
我試圖使用s3 getObject下載非常大的〜2000個文件,並使用nodejs中的存檔將這些文件從服務器存檔到本地磁盤。 我越來越s3錯誤:請降低您的請求率。服務不可用:請降低您的請求率。
代碼段:
var AWS = require('aws-sdk');
var archiver = require('archiver');
var fs = require('fs');
var OutputFileName = 'abc.zip'
s3Client.listObjects(parameters, function(error, data) {
var dataConts = data.Contents;
dataConts.forEach(function(dataE) {
var aparams = {Bucket: bucketName, Key: dataE.Key};
archive.append(s3Client.getObject(aparams).createReadStream(),
{ name: dataE.Key }
);
archive.on('error', function(error) {
throw error;
});
archive.on('end', function() {
callback();
});
response.attachment(OutputFileName);
archive.pipe(respose);
archive.finalize();
});
});
任何人都可以讓我知道是否S3和檔案可以在任何其它方式使用,下載和存檔的文件數量非常龐大的。
標籤'python'不適用於此 – arboreal84