我剛剛在Ubuntu上安裝了hadoop。Hadoop - 沒有這樣的文件或目錄安裝
當我去的Hadoop文件夾通過終端(檢查Hadoop是正確或不安裝)和寫這個..
bin/start-all.sh
它給了我這個錯誤...
bash: bin/start-all.sh: No such file or directory
能有人告訴我這裏有什麼問題嗎?
我剛剛在Ubuntu上安裝了hadoop。Hadoop - 沒有這樣的文件或目錄安裝
當我去的Hadoop文件夾通過終端(檢查Hadoop是正確或不安裝)和寫這個..
bin/start-all.sh
它給了我這個錯誤...
bash: bin/start-all.sh: No such file or directory
能有人告訴我這裏有什麼問題嗎?
它可能太長了回答,但這裏是解決
如果一切正常,你應該嘗試
sbin/start-all.sh
不
bin/start-all.sh
sbin目錄/ start-all.sh是右命令,此命令已棄用。
要啓動名稱節點和節點數據使用以下命令, sbin目錄/ start-dfs.sh sbin目錄/ start-yarn.sh
而且運行JPS命令檢查名稱節點和數據節點守護程序開始。
如果namenode和datanode指向相同的id,那麼執行mapreduce示例時會出現問題。
有關如何正確安裝和啓動守護程序的更多信息,請參閱myhobbyandexperiments.wordpress.com。
步驟1:
start-all.sh
第二步:
start-yarn.sh
步驟3:向檢查名稱節點和數據節點正在運行或也不
jps
步驟4:
hadoop version
希望它能正常工作....
這很簡單,你沒有你的環境設置正確。你是如何安裝Hadoop的?你是什麼$ CLASSPATH的樣子? $ HADOOP_HOME是什麼樣的?請返回並確保您正確設置了所有PATH。 – apesa 2014-11-03 21:02:18
是的,我做到了......現在我想我搞砸了JAVA_Home ..它不給我JVM ..卡在那裏..你知道有其他方式嗎? – 2014-11-04 00:14:11
不,您需要正確設置您的CLASSPATH和HADOOP_HOME變量。發佈你添加到你的.bashrc配置文件中的HADOOP變量和你的JAVA_HOME。 – apesa 2014-11-04 00:38:41