0
我們可以在java spark中並行bean類嗎?如果是,請提供相同的語法。如果沒有,那麼我們如何在JavaRDD中加載bean類?在spark中並行bean類
我們可以在java spark中並行bean類嗎?如果是,請提供相同的語法。如果沒有,那麼我們如何在JavaRDD中加載bean類?在spark中並行bean類
當然可以。唯一的要求是該類必須是可序列化的。
例子:
public class A implements Serializable {
private int x;
public A() {}
public A(int x) {this.x = x;}
// getters and setters
}
// later in main class
import java.util.Arrays;
// later
JavaRDD<A> rdd = javaSparkContext.parallelize(Arrays.asList(new A(5)));
感謝的人!這有助於:) –
@GovindYadav請投票並接受答案:) –