2017-01-24 113 views
1

我正在設置一個Hadoop節點,但運行時$HADOOP_HOME/sbin/start-dfs.sh會打印它找不到$HADOOP_HOME/bin/hdfs。該位置的文件存在,但我可以很好地閱讀它。從start-dfs.sh腳本

登錄:

[email protected]:/opt/hadoop-2.7.3# sbin/start-dfs.sh 
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf 
Starting namenodes on [] 
localhost: starting namenode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-namenode-hadoop.out 
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory 
localhost: starting datanode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-datanode-hadoop.out 
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory 
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf 

至於我可以告訴我的所有路徑變量設置正確(回聲$ HADOOP_HOME返回正確的目錄)。

+0

是'HADOOP_HOME'根用戶設置以及細節? – Ambrish

+0

@ Ambrish我將它們全部放在/ etc/environment中,我從根目錄運行所有東西,所以我認爲是這樣。 – cogm

+0

「HADOOP_HOME」的值是多少? – Ambrish

回答

0

一般/etc/environment文件專門用於系統範圍的環境變量設置。它不是一個腳本文件,而是由賦值表達式組成,每行一個。

它不由shell腳本處理。

請確定您的環境變量爲.bashprofile.bashrc並啓動hadoop進程。

請參閱有關environment variables.

+0

嗯 - 將變量移動到'.bashrc'並且一些錯誤已經消失,但不是'/ bin/hdfs': 'root @ hadoop:/opt/hadoop-2.7.3# sbin/start-dfs.sh' '在[{ip}]上啓動namenode' '{ip}:啓動namenode,記錄到/opt/hadoop-2.7.3/logs/hadoop-root-namenode-hadoop。 # '{ip}:很好:'$ HADOOP_HOME/bin/hdfs':沒有這樣的文件或目錄' 'localhost:啓動datanode,記錄到/opt/hadoop-2.7.3/logs/hadoop-root -datanode-hadoop.out' 'localhost:nice:'$ HADOOP_HOME/bin/hdfs':沒有這樣的文件或目錄' – cogm

相關問題