s3cmd

    1熱度

    1回答

    s3cmd du -H s3://bucketabc/prefix/further-prefix 給出21G s3cmd du -H s3://bucketabc/prefix/further-prefix/ 給10G。 那裏沒有文件,只有四個「子目錄」。 我有五個接近副本的桶,這隻發生在其中兩個桶中。其他人一致顯示10G。 桶之間的唯一明顯差異 - 和一個看似無關一個 - 是這給10G具

    0熱度

    2回答

    建立s3cmd和我的S3桶後,當我嘗試這個命令 sudo s3cmd sync --recursive --preserve /srv s3://MyS3Bucket 我得到這個錯誤: ERROR: S3 error: 400 (InvalidRequest): The authorization mechanism you have provided is not supported. Pl

    -2熱度

    1回答

    是否存在被保留的文件路徑使用拷貝文件到S3存儲的方法嗎? 這是例子: 1.我生產使用s3cmd同步--dry運行 名單是在bucket1不同,那麼在bucket2文件列表如下: s3://BUCKET/20150831/PROD/JC-migration-test-01/META-INF/vault/definition/.content.xml s3://BUCKET/20150831/PRO

    1熱度

    2回答

    我正在構建一個Apache Spark應用程序,該應用程序將在EMR實例中執行。爲此,我創建了一個羣集,之後我將步驟添加到羣集以執行Spark應用程序。 在Spark應用程序中,我需要對S3執行讀/寫操作。 對於與S3服務的交互,我需要安裝s3cmd in EMR實例。 也同時創造EMR集羣,我需要安裝和配置s3cmd使用--bootstrap應用 但我需要關於如何安裝和配置s3cmd使用引導程序

    12熱度

    1回答

    如何在使用aws s3 syn時排除多個文件夾? 我想: # aws s3 sync s3://inksedge-app-file-storage-bucket-prod-env s3://inksedge-app-file-storage-bucket-test-env --exclude 'reportTemplate/* orders/* customers/*' 但仍然是在做同步文件夾

    0熱度

    3回答

    我想從s3中的已加密存儲區下載文件。存儲桶使用AES256加密。我使用下面的命令 s3cmd --access_key=<access_key> --secret_key=<secret_key> get <s3_key_location> <target_loc>. 我讀了s3 usage。它沒有多大幫助。 如何指定我要下載的文件從S3解密後的選項? 另外,由於剷鬥被加密,該命令創建具有相同

    4熱度

    1回答

    時,當我使用AWS同步設置配置文件,我可以doimg aws sync ./test s3://test --profile stage 的輪廓相匹配的一組憑據設置的配置文件。我爲每個配置文件擁有不同的憑據。 如何使用s3cmd sync命令並設置配置文件,就像我使用aws sync一樣?

    2熱度

    1回答

    我使用s3cmd從AWS獲取文件到我的Ubuntu服務器。 s3cmd get s3://bucket/filename newfilename 它從ubuntu的終端運行時工作正常。 但是,當我從PHP運行像下面 $query1 = 's3cmd get s3://bucket/filename newfilename'; $q1 = serialize(shell_exec($query

    1熱度

    1回答

    我有一個要求,列出從一個Amazon S3位置的文件: BUCKET= "s3://static.abc.com" s3cmd ls --recursive $BUCKET/colorpics/*/640/ 的colorpics目錄包含多個子目錄多年,如: 2013 2014 2015 2016 所以ls命令應該動態列出所有年份的圖像,並且應該僅從下一級子目錄/640/中列出。 如

    0熱度

    1回答

    我需要遞歸下載一個文件夾中的文件夾的目錄樹,但不要下載任何文件(它們很大)。這是我到目前爲止: s3cmd --dry-run --recursive --no-delete-removed --verbose --rinclude='^[^.]*$' --rexclude='[^.]*$' sync s3://bucket_name/folder/ ~/Downloads/local_