我在Apache Spark作業中使用AWS Java SDK來使用從S3中提取的數據填充DynamoDB表。 Spark工作只使用非常強烈的流(僅用於寫入的三個m3.xlarge節點)並且沒有任何重試策略使用單個PutItem
來寫入數據。DynamoDB:什麼時候ProvisionedThroughputExceededException引發
DynamoDB docs state表示AWS SDK有退避策略,但最終如果費率太高可以提高ProvisionedThroughputExceededException
。我的火花崗位工作了三天,只受到DynamoDB吞吐量(等於500個單元)的限制,所以我期望速率非常高,隊列非常長,但是我沒有任何異常情況或丟失數據的跡象。
所以,我的問題是 - 當寫入DynamoDB的速度非常高時,可能會發生異常。
您使用的是DynamoDB映射器還是低級API? –
@TofigHasanov我正在使用低級API(雖然不知道其他接口存在!) – chuwy