0
在Spark分配附帶的SparkPi示例中,RDD上的reduce
並行執行(每個切片計算其總數),還是不是?Spark SparkPi示例
val count: Int = spark.sparkContext.parallelize(1 until n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x*x + y*y < 1) 1 else 0
}.reduce(_ + _)
酷!因此,不需要「聰明」併發送閉包來計算每個執行程序的小計,而不是使用「reduce」。我喜歡它,只需要相信Spark :-) – Frank