我想在我的機器localy使用Spark和我能夠重現教程在:SparkR在Windows上 - 星火SQL不與蜂巢支持內置
然而,當我嘗試使用蜂巢我得到以下錯誤:
Error in value[3L] : Spark SQL is not built with Hive support
代碼:
## Set Environment variables
Sys.setenv(SPARK_HOME = 'F:/Spark_build')
# Set the library Path
.libPaths(c(file.path(Sys.getenv('SPARK_HOME'), 'R','lib'),.libPaths()))
# load SparkR
library(SparkR)
sc <- sparkR.init()
sqlContext <- sparkRHive.init(sc)
sparkR.stop()
首先,我懷疑這是星火的預建版本,然後我試圖建立我使用Maven自己,歷時將近一個小時:
mvn -Pyarn -Phadoop-2.6 -Dhadoop.version=2.6.0 -Phive -Phive-thriftserver -DskipTests clean package.
然而,錯誤仍然存在。
你是對的...我放棄了嘗試在Windows上進行這項工作。它花了我幾個小時,但它正在我的Linux VM –
最好的選擇,你可以使:-) – desertnaut