2017-04-11 81 views
0

我在此站點檢查瞭解決方案。datanode和namenode中的不兼容clusterIDs

我去了(hadoop文件夾)/ data/dfs/datanode來更改ID。

但datanode文件夾中沒有任何東西。

我該怎麼辦?

感謝您的閱讀。

如果你幫助我,我會很感激你。

PS

2017年4月11日20:24:05507 WARN org.apache.hadoop.hdfs.server.common.Storage:無法添加存儲目錄[DISK]的文件:/ TMP/hadoop的-knu/dfs/data/

java.io.IOException:/ tmp/hadoop-knu/dfs/data中的不兼容clusterID:namenode clusterID = CID-4491e2ea-b0dd-4e54-a37a-b18aaaf5383b; datanode clusterID = CID-13a3b8e1-2f8e-4dd2-bcf9-c602420c1d3d

2017-04-11 20:24:05,509 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode:塊池初始化失敗(Datanode Uuid未分配)服務本地主機/ 127.0.0.1:9010。退出。

java.io.IOException:所有指定的目錄加載失敗。

2017-04-11 20:24:05,509 WARN org.apache.hadoop.hdfs.server.datanode.DataNode:將塊池服務終止到本地主機/ 127.0.0.1的Block pool(Datanode Uuid unassigned)服務: 9010

芯-site.xml中

<configuration> 
    <property> 
      <name>fs.defaultFS</name> 
      <value>hdfs://localhost:9010</value> 
    </property> 
</configuration> 

HDFS-site.xml中

<configuration> 
    <property> 
      <name>dfs.replication</name> 
      <value>1</value> 
    </property> 
    <property> 
      <name>dfs.namenode.name.dir</name> 
      <value>/home/knu/hadoop/hadoop-2.7.3/data/dfs/namenode</value> 
    </property> 
    <property> 
      <name>dfs.namenode.checkpoint.dir</name> 
      <value>/home/knu/hadoop/hadoop-2.7.3/data/dfs/namesecondary</value> 
    </property> 
    <property> 
      <name>dfs.dataode.data.dir</name> 
      <value>/home/knu/hadoop/hadoop-2.7.3/data/dfs/datanode</value> 
    </property> 
    <property> 
      <name>dfs.http.address</name> 
      <value>localhost:50070</value> 
    </property> 
    <property> 
      <name>dfs.secondary.http.address</name> 
      <value>localhost:50090</value> 
    </property> 
</configuration> 

PS2

[[email protected] ~]$ ls -l /home/knu/hadoop/hadoop-2.7.3/data/dfs/ 
drwxrwxr-x. 2 knu knu 6 4월 11 21:28 datanode 
drwxrwxr-x. 3 knu knu 40 4월 11 22:15 namenode 
drwxrwxr-x. 3 knu knu 40 4월 11 22:15 namesecondary 
+0

你可以發佈你的'hdfs-site.xml'和'core-site.xml' – franklinsijo

+0

我加了hdfs-site.xml和core-site.xml –

+0

你也可以發佈'ls -l/home/knu/hadoop/hadoop-2.7.3/data/dfs /'! – franklinsijo

回答

1

問題出在屬性名稱dfs.datanode.data.dir,它拼錯爲dfs.dataode.data.dir。這會使該屬性無法識別,因此,默認位置${hadoop.tmp.dir}/hadoop-${USER}/dfs/data將用作數據目錄。

hadoop.tmp.dir默認爲/tmp,在每次重新啓動時,此目錄的內容將被刪除並強制datanode在啓動時重新創建文件夾。因此不兼容的集羣ID

在格式化namenode並啓動服務之前,在hdfs-site.xml中編輯此屬性名稱。

+0

嗯......對不起,我can'不明白。 您是否說過更改?不是? 然後。我該如何選擇名字? –

+0

您看到中的錯字? 'dfs.dataode.data.dir' .... – franklinsijo

+0

haha​​hahaha ............ 我看..... 也許我需要去眼科醫院 –

0

嘗試格式化名稱節點,然後重新啓動HDFS。

+0

我做了下面的命令 sbin目錄/ stop-all.sh 斌/ HDFS的NameNode -format sbin目錄/ start-all.sh 但是,數據管理部仍然沒有工作 –

相關問題