2
有一個簡單的,也許怪異問題執行兩次:以下代碼DAG執行兩次預計,因爲我打電話的動作兩次:阿帕奇星火:達格沒有爲reduceByKey
val input = sc.parallelize(List(1,2,3,4))
val result = input.map(x => {
println("!!! Input Map !!!")
errorLines.add(1)
(x,1)
})
//.reduceByKey(_+_)
println(result.count())
println(result.collect())
如果我取消註釋reduceByKey
行 - DAG將只執行一次,雖然reduceByKey
是轉換,並且我正在調用兩次操作。
這是否意味着Spark並不總是重新計算DAG?