我遇到的問題是,當我運行bin/hadoop fs -ls
它打印出來,我在我的本地目錄中的所有文件,而不是文件在HDFS(目前應該是沒有)。以下是我設置好一切:有問題設立的Hadoop
我已經下載並解壓所有的文件0.20.2進入/home/micah/hadoop-install/
。我已經編輯我conf/hdfs-site.xml
具有以下設置,並建立了相應的目錄:
<configuration>
<property>
<name>fs.default.name</name>
<value>localhost:9000</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/micah/hdfs/data</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/micah/hdfs/name</value>
</property>
</configuration>
我然後跑bin/hadoop namenode -format
其次bin/start-dfs.sh
。
如果您嘗試,會發生什麼: '斌/ FS Hadoop的HDFS -ls://本地主機:9000'? – 2011-03-11 21:50:57
11/03/11 16:54:13信息ipc.Client:重試連接到服務器:localhost/127.0.0.1:9000。已經嘗試0次(s)。 – Micah 2011-03-11 21:54:40
它不斷重試,給我上面 – Micah 2011-03-11 21:56:35