0
我有一個方法,將字符串的ArrayBuffer轉換爲RDD。Spark rdd是空的,直到我做.count()
def makeRddFromArray() : RDD[String] = {
val rdd = Conf.sc.parallelize(listOfStrings)
//rdd.count
rdd}
帶有註釋rdd.count()當我取消這個它返回大小爲0的RDD,該RDD是適當大小的。有人能解釋我爲什麼嗎? 謝謝
感謝您的回答。 在代碼後來我有: 'VAL finalRDD = sc.union(listOfStringRDD)' 如果我有評論此'.Count之間()'方法在'makeRDDFromArray'方法 '調用println( 「最終尺寸RDD:」 + rdd.count())'打印0. 評論它打印100什麼是正確的。 – Tomasz