我的需求是啓用ODBC/JDBC訪問SparkSQL 臨時表,其中有一個Spark中的DataFrame(混合基於JSON和流)。 我使它在Spark 1.6中工作,然後最近升級到Spark到2.1.1。我調整了我的代碼作爲this question中的第二個應答者。我注意到,對這一條款棄用警告,但是: val sqlContext = new org.apache.spark.sql.SQLCo
我有下表獲取增量更新。我需要編寫一個普通的Hive查詢來合併具有相同鍵值和最新值的行。 Key | A | B | C | Timestamp
K1 | X | Null | Null | 2015-05-03
K1 | Null | Y | Z | 2015-05-02
K1 | Foo | Bar | Baz | 2015-05-01
想要得到的: Key | A | B | C |