2013-09-22 48 views
0

剛纔我寫了一個90M的文件到HDFS,以下執行命令的fsck。輸出如下。爲什麼我不能看到由dfs.data.dir指定的路徑塊的文件嗎?

[email protected]:~$ hadoop fsck /home/xuhang/hadoopinput/0501/baidu_hadoop.flv -files -blocks -locations 

/home/xuhang/hadoopinput/0501/baidu_hadoop.flv 103737775字節,2塊(多個) ...................... 。

0. blk_-7625024667897507616_12224 len=67108864 repl=2 [node1:50010, node2:50010] 
1. blk_2225876293125688018_12224 len=36628911 repl=2 [node1:50010, node2:50010] 

................. ................. fsck會在太陽9月22日結束11時55分51秒CST 2013在25毫秒

我已經配置在HDFS-site.xml中相同的屬性兩個數據節點像的下方。

<name>dfs.name.dir</name> 
<value>/home/xuhang/hadoop-1.2.1/name1,/home/xuhang/hadoop-1.2.1/name2</value> 

但我發現兩個數據節點沒有在/home/xuhang/hadoop-1.2.1/name1/home/xuhang/hadoop-1.2.1/name2。爲什麼呢?我相信我已經寫了90M文件到HDFS成功,因爲我可以從Hadoop的命令或Java客戶端閱讀。

回答

0

我看到那些塊位於主機node1和node2中。你一直在尋找節點1和節點? 請檢查在這兩個節點1和節點的HDFS-site.xml中了。很有可能dfs.data.dir可能會在這些節點中設置爲不同的東西。您應該在名爲的當前目錄中找到blk_文件,該目錄位於dfs.data.dir指向的目錄內。

+0

我一直在看node1和node2。配置是正確的。我想也許我必須調試源代碼。 –

相關問題