2015-02-10 71 views
9

我想知道在由spark-ec2創建羣集時是否可以更改hadoop版本?使用spark-ec2更改hadoop版本

我試圖

spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 launch my-spark-cluster 

然後我用

spark-ec2 -k spark -i ~/.ssh/spark.pem login my-spark-cluster 

登錄並發現了Hadoop的版本是1.0.4。

我想使用2.x版本的hadoop,配置這個最好的方法是什麼?

+0

我不認爲這是目前支持,雖然有[開放公關增加支持啓動Hadoop 2羣集](https://github.com/mesos/spark-ec2/pull/77)。 – 2015-02-11 01:10:03

回答

8

的Hadoop 2.0

spark-ec2腳本不支持修改現有羣集,但你可以創建用Hadoop 2.

一個新的Spark集羣由參閱此摘錄腳本的--help

--hadoop-major-version=HADOOP_MAJOR_VERSION 
        Major version of Hadoop (default: 1) 

因此,例如:

spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 --hadoop-major-version=2 launch my-spark-cluster 

..will如果使用星火v如果使用和火花的當前版本的Hadoop 2.


你創建一個集羣。1.3.1或火花訴1.4.0和將創建一個獨立羣集,那麼您將通過這種方式獲得Hadoop v. 2.0.0 MR1(來自Cloudera Hadoop Platform 4.2.0發行版)。


的告誡是:

..但我有成功使用了幾個使用Hadoop 2.0.0創建的Spark 1.2.0和1.3.1集羣,並使用了一些Hadoop2特有的功能。 (對於星火1.2.0有一些調整,我已經把我的Sparkspark-ec2叉,但這是另一個故事。)


Hadoop的2.4,2.6

如果您需要Hadoop 2.4Hadoop 2.6那麼我現在(截至2015年6月)建議您手動創建獨立羣集 - 它比您想象的要容易。

+0

你好格雷格,你還不推薦使用spark-ec2腳本來啓動hadoop 2.6嗎? – dirceusemighini 2016-03-10 14:28:17

+0

Hi @dirceusemighini!自2015年6月以來,我一直沒有做過這方面的工作,所以Spark v。1.4.0和2016年3月我們的版本1.6.1穩定,所以很遺憾,我現在還沒有最新的觀點。 – 2016-03-11 10:08:41

+0

好的,謝謝@ greg-dubicki – dirceusemighini 2016-03-14 13:15:15