我對Spark很新。我想將DataFrame轉換爲POJO的RDD。像:如何將Spark DataFrame轉換爲Java中POJO的RDD
JavaRDD<POJOClass> data = df.toJavaRDD();
其中df是一個數據框。
df.show()
給出:
+---------+---------+---------+---------+
| A | B | C | D |
+---------+---------+---------+---------+
|603300042| 1025| 2|127000948|
|603303766| 1112| 2|127000364|
|603302691| 1184| 2|127000853|
|603303766| 1112| 2|127000364|
|603302691| 1184| 2|127000853|
|603303766| 1112| 2|127000364|
|603303787| 1041| 2|137000323|
|603306351| 1041| 2|137000468|
|603304009| 1307| 2|137000788|
|603303830| 1041| 2|137000012|
|603301119| 1002| 2|137000369|
|603301507| 1188| 2|137001568|
|603302168| 1041| 2|137000468|
+---------+---------+---------+---------+
我的POJO類如下:
public static class POJOClass {
public Long A;
public Integer B;
public Integer C;
public Long D;
}
我知道
JavaRDD<Row> data = df.toJavaRDD();
效果很好。但是,我有什麼解決辦法可以實現?
Hi Noman,要求是隻使用RDD。 –