2015-12-25 67 views

回答

1

我的理解是獲得正確的hadoop.version是使一切正常工作的關鍵一步。

我回到版本spark 1.3.1,發現它有hadoop.version=1.0.3-mapr-3.0.3的mapr3配置文件。要構建一個完整的發行版,如果您已經設置了JAVA_HOME,以下命令將工作:

./make-distribution.sh --name custom-spark --tgz -Dhadoop.version=1.0.3-mapr-3.0.3 -Phadoop-1 -DskipTests