-2
我想用spark創建數據報告。 我想要做的概念如下。Spark,Scala - 從rdd映射輸出
case class output(txt: String)
outputList: List[output] = ..
myrdd
.filter(..)
.map(
some processing
outputList ::= output(..)
)
// this is why I cannot just union rdd with rdd
anotherRdd.map(
...some processing...
val rdd = ..make rdd from rdd..
rddinrdd.map(
...some processing...
outputList ::= output(..)
)
)
// save it as text
..save outputList somehow..
我知道它不會因爲outputList工作將被存儲的所有輸出之前保存的,有沒有辦法做到這一點?
很難理解的結果。你可以請教一下這段文字。你也可以舉一個輸入的例子和你想要達到的預期輸出嗎? – marios
爲什麼在'anotherRdd'中''處理''處理後''兩個RDD' –