1

使用Data Pipeline(https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-part1.html)將S3中的數據導入Dynamo DB表的AWS文檔引用S3文件(s3:// elasticmapreduce/samples/Store/ProductCatalog ),這是這種格式:使用AWS Datapipeline將CSV轉換爲導入DynamoDB所需的格式

enter image description here

https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-pipelinejson-verifydata2.html?_sm_ovs=2DtvnqvHTVHW7q50vnqJqRQFVVnqZvnqMVVVVVVsV

的問題是...我怎麼得到的CSV說,4百萬行成這種格式擺在首位?這有什麼用嗎?

感謝您的任何建議......我有一個很好的谷歌,並沒有出現任何東西。

+0

也許意圖總是首先將數據從Dynamo導出到S3(備份它),然後您可以隨時導入備份...因此您已經獲得了正確格式的文件.... 但並不是最初導入Dynamo工作流程,我試圖實現。 –

+0

我通過自定義管道作業完成了一次。不發佈爲答案,因爲我沒有鏈接或我確切使用的副本。這是這樣的,但:https://github.com/awslabs/data-pipeline-samples/blob/master/samples/DynamoDBImportCSV/CSVtoDynamoDB.json – stevepkr84

回答

-1

AWS Datapipeline服務支持CSV導入到發電機數據庫。您可以從aws控制檯爲datapipeline創建一個管道,並選擇「從S3導入DynamoDB備份數據」。將S3中存儲的CSV導入Dynamodb。

又見

http://docs.aws.amazon.com/amazondynamodb/latest/developerguide/DynamoDBPipeline.html#DataPipelineExportImport.Importing

+0

不,我使用的是模板,但數據需要在正如我上面顯示的正確格式...不只是一個直的CSV。你真的嘗試過嗎? –

相關問題