0
我的問題可能聽起來很愚蠢,但我需要使用spark-scala在我的配置單表中執行一些操作,因爲我想知道有無論如何,我可以使用SqlContext
來讀取配置單元表。我知道HiveContext
但我想用SqlContext。使用SqlContext連接Hive表
我的問題可能聽起來很愚蠢,但我需要使用spark-scala在我的配置單表中執行一些操作,因爲我想知道有無論如何,我可以使用SqlContext
來讀取配置單元表。我知道HiveContext
但我想用SqlContext。使用SqlContext連接Hive表
正如在評論中提及@Binary書呆子:
HiveContext
延伸SQLContext
所以,當你使用類型安全的語言(Java),你可以用這種方式宣告您的SQLContext
:
SQLContext sqlContext = new HiveContext(sc)
感謝您的解釋和幫助! upvoted – animal
它在我看來就像Spark文檔解釋的那樣s:http://spark.apache.org/docs/1.6.2/sql-programming-guide.html#hive-tables - 即你從'HiveContext'創建一個'SqlContext'。 –
我閱讀了文檔,但不知何故,我想我錯過了閱讀。所以基本上'HiveContext'從'SQLContext'繼承,所以我們只使用SQLContext。我對麼 ? – animal
我正確@BinaryNerd? – animal