我已經在Ubuntu上安裝了Spark 2.1.1,無論我做什麼,它似乎都不認同java路徑。當我運行「spark-submit --version」或「spark-shell」時,出現以下錯誤:spark-class:line 71 ...沒有這樣的文件或目錄
/usr/local/spark/bin/spark-class:第71行:/ usr/lib/jvm/java-8-openjdk-amd64/jre/bin // bin/java:沒有這樣的文件或目錄
現在顯然「/ bin // bin/java」有問題,但我不確定在哪裏改變配置。火花級文件有以下幾行:
if [ -n "${JAVA_HOME}" ]; then
RUNNER="${JAVA_HOME}/bin/java"
我最初使用版本星火意味着Hadoop的2.4
,當我把它改爲「亞軍=」 $ {JAVA_HOME}」它要麼給我錯誤「[路徑]是一個目錄」或「[路徑]不是目錄」。這也是在嘗試/ etc /環境中的多個路徑排列之後
我現在在/ etc/environment中有:
JAVA_HOME =「/ usr/lib/jvm/java-8 -openjdk-amd64/jre/bin /」
這是當前Java設置,我有:
[R OOT @ Ubuntu的:〜#更新替代--config java的 有鏈路組的Java只有一個選擇(提供在/ usr/bin中/ JAVA) :/ usr/lib中/ JVM/JAVA-8的OpenJDK,AMD64/JRE /斌/ java的
.bashrc中有以下幾點:
export SPARK_HOME="/usr/local/spark"
export PATH="$PATH:$SPARK_HOME/bin"
能
人提醒:1)我需要什麼文件來改變2)我需要如何改變它們?提前致謝。
火花類文件中的鏈接,以防萬一:
http://vaughn-s.net/hadoop/spark-class
工作 - 謝謝! –