1
groupByKey給了我RDD [鍵,值]我找不到任何方法將其轉換爲Map [key,RDD [values]]。 謝謝。Apache spark:我們如何將RDD [v]分成Map [k,RDD [v]]?
SV
groupByKey給了我RDD [鍵,值]我找不到任何方法將其轉換爲Map [key,RDD [values]]。 謝謝。Apache spark:我們如何將RDD [v]分成Map [k,RDD [v]]?
SV
AFAIK沒有星火原始的,它會讓你通過這樣的關鍵拆分RDD。我們正在使用過濾來實現類似的結果。性能方面,它必須比實際的groupByKey
輕很多,因爲過濾器不需要洗牌。
val keys = rdd.keys.collect
val dataByKey = keys.map(key => (key, rdd.filter(_._1 == key)).toMap
請注意,密鑰必須適合驅動程序的內存才能正常工作。
非常感謝您響應我的查詢。我會嘗試你的建議。 – 2014-10-21 01:24:04
[如何將RDD拆分爲兩個或多個RDD?](http://stackoverflow.com/questions/32970709/how-to-split-a-rdd-into-two-or-more- rdds) – 2016-11-03 15:12:13