2016-06-28 120 views

回答

3

解決方案:火花殼(火花2.0)

import org.apache.spark.api.java.JavaSparkContext 
val jsc = new JavaSparkContext(sc) 
val javaRDD:java.util.List[Int]= java.util.Arrays.asList(1, 2, 3, 4, 5) 
jsc.parallelize(javaRDD) 

Spark Programming Guide

4

我有同樣Proble米我做了什麼至今:

爲我做這個
List<String> list = Arrays.asList("Any", "List", "with", "Strings"); 
Dataset<String> listDS = sparkSession.createDataset(list, Encoders.STRING()); 
JavaRDD<String> javaRDDString = listDS.toJavaRDD(); 

一個原因是,例如,我想用flatMap的正常工作與JavaRDD<String>但與Dataset<String>

希望這有助於。

+0

非常感謝....! –