我想知道在由spark-ec2創建羣集時是否可以更改hadoop版本?使用spark-ec2更改hadoop版本
我試圖
spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 launch my-spark-cluster
然後我用
spark-ec2 -k spark -i ~/.ssh/spark.pem login my-spark-cluster
登錄並發現了Hadoop的版本是1.0.4。
我想使用2.x版本的hadoop,配置這個最好的方法是什麼?
我不認爲這是目前支持,雖然有[開放公關增加支持啓動Hadoop 2羣集](https://github.com/mesos/spark-ec2/pull/77)。 – 2015-02-11 01:10:03