我創建了一個本地的Spark集羣,並從它像下面 val sparkConf = new SparkConf(true).setAppName("test").setMaster("local[8]")
val sparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
使用它,我也成功創建虛擬dataframe
我已經在pyspark數據框下面的數據稱爲end_stats_df: values start end cat1 cat2
10 1 2 A B
11 1 2 C B
12 1 2 D B
510 1 2 D C
550 1 2 C B
500 1 2 A B
80 1 3 A B
我想要聚合它以下列方式: