2
我正在使用火花mapwithstate,但存儲空間不斷增加。spark-mapwithstate爲什麼存儲空間的數量仍然是20?
問題1:
內存9GBMapPartitionsRDD大小x 20則可以減少這種規模?
問題2:
And in InternalMapWithStateDStream, storagelevel is fixed to MEMORY_ONLY.
我想改變堅持(StorageLevel.MEMORY_ONLY_SER),因爲它的規模。可能嗎?
問題3:
Private [streaming] object InternalMapWithStateDStream {
Private val DEFAULT_CHECKPOINT_DURATION_MULTIPLIER = 10
}
我想減少這種檢查點值。可能嗎?
謝謝你的回答。 ** 1。該集羣分佈良好**但您只需要最後一個狀態存儲,爲什麼還有剩餘的19個存儲? ** dStream.mapWithState(spec).checkpoint(秒(4))**不工作默認情況下運行10 interva'val kafkastateStream = chnlStream.mapWithState(stateSpec) kafkastateStream.checkpoint(Seconds(10 * 5)) val kafkaSnapshotStream = kafkastateStream.stateSnapshots()' –
@HyunkeunLee *但你只需要最後一個狀態存儲,爲什麼你還剩下19個存儲?*這完全取決於你如何存儲狀態。新來的國家有*不同的鑰匙*?你在每次迭代中存儲新狀態嗎?向我們展示代碼。關於檢查點,如果它不使用自定義間隔,它應該運行每個批處理時間*默認間隔*。 –