我正在運行配置單元2.1.1,Ubuntu 16.04上的hadoop 2.7.3。Spark上的Hive 2.1.1 - 我應該使用哪個版本的Spark
據Hive on Spark: Getting Started,它說
Install/build a compatible version. Hive root pom.xml's defines what version of Spark it was built/tested with.
我檢查了pom.xml的,它表明,火花的版本是1.6.0。
<spark.version>1.6.0</spark.version>
但Hive on Spark: Getting Started也說,
Prior to Spark 2.0.0: ./make-distribution.sh --name "hadoop2-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.4,parquet-provided"
Since Spark 2.0.0: ./dev/make-distribution.sh --name "hadoop2-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.7,parquet-provided"
所以現在我很困惑,因爲我正在運行的Hadoop 2.7.3。我必須將我的hadoop降級到2.4嗎?
我應該使用哪個版本的Spark? 1.6.0還是2.0.0?
謝謝!
我試過Spark 1.6.0,它工作。我會按照你的建議測試Spark 2.0.2。 –
如果您遇到任何問題,請告知我。 –
@siddharthajain,請你分享你在Spark上配置Hive的詳細步驟?我試圖在Spark(2.1.0)上運行Hive(2.1.1),但失敗了。我以獨立模式啓動Spark,並使用以下命令啓動配置單元:hive --auxpath $ HOME/Tools/spark-2.1.0-bin-hadoop2.7/jars /,使用命令設置配置單元: set hive.execution.engine = spark; set spark.master = spark://10.0.0.26:7077; 配置單元> set spark.eventLog.enabled = true; hive> set spark.eventLog.dir =/tmp/hive-shizhz/spark /; 配置單元> set spark.executor.memory = 512m; 配置單元> set spark.serializer = org.apache.spark.serializer。KryoSerializer; – shizhz