2014-09-27 22 views
0

我在CentOs和HADOOP 2.5.0上有4個節點的集羣1主站和3個從站。進程在所有節點上運行,但沒有連接到名稱節點的datanode

所有的配置和ssh也很好:)。 。

但是,當我在主namenod和奴隸datanode作業運行運行start-dfs.shweb GUIhadoop dfsadmin -report無節點沒有運行:(

我的hosts文件:

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 
192.168.1.201 master1 master1.foo.com 
192.168.1.200 slave3 slave3.foo.com 
192.168.1.203 slave1 slave1.foo.com 
192.168.1.204 slave2 slave2.foo.com 
::1   localhost localhost.localdomain localhost6 localhost6.localdomain6 

在所有主機

+0

您是否可以檢查datanode日誌,如果有任何錯誤 – neeraj 2014-09-28 12:52:21

回答

0

進入

/home/hduser/ha杜朋/ sbin目錄/

然後輸入start-all.sh

該輸入JPS

在此時間後,可你看到你的數據節點運行?

+0

請您詳細說明您的答案,並增加關於您提供的解決方案的更多描述? – abarisone 2015-06-18 06:06:27

+0

有兩種方法可以解決datanode無法運行的問題。 <1>先執行「stop-all.sh」<2>刪除「datanode」文件夾../hadoop/hdfs <3>執行「hadoop namenode -format」<4>執行「start-all.sh」查看是否可以運行。 2. <1>先執行「stop-all.sh」<2>執行「chown -R ../hadoop/hdfs/datanode」。 <3>執行「start-all.sh」以查看它是否可以運行。 – qianda66 2015-06-20 02:38:02

相關問題