2016-12-10 104 views
1

我在主目錄上安裝了spark並在bash文件中給出了路徑。現在星火沒有火起來使用 「星火殼」Spark未啓動主窗口

的.bashrc被調用時:

export SCALA_HOME=/home/spark/scala-2.12.1 
export PATH=$SCALA_HOME/bin:$PATH 
export SPARK_HOME=/home/spark/spark/ 
export PATH=$SPARK_HOME/bin:$PATH 
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH 
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.1-src.zip:$PYTHONPATH 

錯誤

火花@ SE3:〜/火花2.0 .2-bin-hadoop2.7/bin $ ./spark-shell ./spark-shell:line 57:/ home/spark/spark // bin/spark-submit:沒有這樣的文件或目錄

+0

引發的錯誤: spark @ sE3:〜/ spark-2.0.2-bin-hadoop2.7/bin $ ./spark-shell ./spark-shell:line 57:/ home/spark/spark // bin/spark-submit:No這樣的文件或目錄 –

回答

2

請確認/home/spark/spark/bin/是否正確。因爲spark/spark/是2倍

下面還有交叉檢查..

readlink -f spark-submit 

會給你正確的sparkhome如果有符號鏈接,

你也可以使用

SPARK_HOME="$(cd "`dirname $(readlink -nf "$0")`"/.. ; pwd -P)"