剛纔我寫了一個90M的文件到HDFS,以下執行命令的fsck。輸出如下。爲什麼我不能看到由dfs.data.dir指定的路徑塊的文件嗎?
[email protected]:~$ hadoop fsck /home/xuhang/hadoopinput/0501/baidu_hadoop.flv -files -blocks -locations
/home/xuhang/hadoopinput/0501/baidu_hadoop.flv 103737775字節,2塊(多個) ...................... 。
0. blk_-7625024667897507616_12224 len=67108864 repl=2 [node1:50010, node2:50010]
1. blk_2225876293125688018_12224 len=36628911 repl=2 [node1:50010, node2:50010]
................. ................. fsck會在太陽9月22日結束11時55分51秒CST 2013在25毫秒
我已經配置在HDFS-site.xml中相同的屬性兩個數據節點像的下方。
<name>dfs.name.dir</name>
<value>/home/xuhang/hadoop-1.2.1/name1,/home/xuhang/hadoop-1.2.1/name2</value>
但我發現兩個數據節點沒有在/home/xuhang/hadoop-1.2.1/name1
和/home/xuhang/hadoop-1.2.1/name2
。爲什麼呢?我相信我已經寫了90M文件到HDFS成功,因爲我可以從Hadoop的命令或Java客戶端閱讀。
我一直在看node1和node2。配置是正確的。我想也許我必須調試源代碼。 –