val temp = sqlContext.sql(s"SELECT A, B, C, (CASE WHEN (D) in (1,2,3) THEN ((E)+0.000)/60 ELSE 0 END) AS Z from TEST.TEST_TABLE")
val temp1 = temp.map({ temp => ((temp.getShort(0), temp.getString(1)), (USAGE_TEMP.getDouble(2), USAGE_TEMP.getDouble(3)))})
.reduceByKey((x, y) => ((x._1+y._1),(x._2+y._2)))
而不是上面的代碼在hive層上進行計算(案例評估)我希望在scala中完成轉換。我會怎麼做?將hive sql查詢轉換爲Spark
填寫Map中的數據時可以做同樣的事嗎?
'withColumn'method是另一種方法除了'map'通過下面sarvesh提出的方法 –