我的需求是啓用ODBC/JDBC訪問SparkSQL 臨時表,其中有一個Spark中的DataFrame(混合基於JSON和流)。 我使它在Spark 1.6中工作,然後最近升級到Spark到2.1.1。我調整了我的代碼作爲this question中的第二個應答者。我注意到,對這一條款棄用警告,但是: val sqlContext = new org.apache.spark.sql.SQLCo
我計劃使用Apache Thrift來監視對本地更改的任何更改並將該數據推送到客戶端(更改後的數據)。 當我檢查了勤儉節約的文檔林看到多個傳輸層,但不明白我應該使用哪一個傳輸層 http://thrift-tutorial.readthedocs.io/en/latest/thrift-stack.html Tranport Layer
The transport layer is respon