2016-01-25 56 views
0

所有數據節點都已啓動並正在運行,但在hadoop中設置歷史記錄服務器(mapreduce2)時仍然出現跟隨錯誤。在hadoop中設置歷史記錄服務器時出錯

resource_management.core.exceptions.Fail:的執行「的捲曲-sS -L -w '%{HTTP_CODE}' -X PUT -T /usr/hdp/2.3.4.0-3485/hadoop/mapreduce .tar.gz 'http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444''

returned status_code = 403。 {「RemoteException」:「異常」:「IOException」, 「javaClassName」:「java.io.IOException」, 「message」:「無法找到datanode,建議檢查羣集運行狀況。
}

}

回答

0

從名字節點,運行下面的命令,以確保數據的節點從NameNode的

bin/hadoop dfsadmin -report 

正常和可運行的,你可以看到像

報告
------------------------------------------------- 
Datanodes available: 1 (1 total, 0 dead) 

Name: 127.0.0.1:50010 
Decommission Status : Normal 
Configured Capacity: 176945963008 (164.79 GB) 
DFS Used: 2140192768 (1.99 GB) 
Non DFS Used: 42513027072 (39.59 GB) 
DFS Remaining: 132292743168(123.21 GB) 
DFS Used%: 1.21% 
DFS Remaining%: 74.76% 
Last contact: Wed Jan 06 20:04:51 IST 2016 

如果看到0個datanodes,則配置必須是錯誤的

+0

謝謝。它終於工作了。 首先,它顯示了0個節點,但是這兩個DN都是UP。 重新啓動它,並報告cmd工作。然後啓動歷史記錄服務器,它終於起來了。 – Ramish

+0

如果您認爲答案是正確的,請將其標記爲已接受 – Thanga

相關問題