2011-03-11 73 views
2

我遇到的問題是,當我運行bin/hadoop fs -ls它打印出來,我在我的本地目錄中的所有文件,而不是文件在HDFS(目前應該是沒有)。以下是我設置好一切:有問題設立的Hadoop

我已經下載並解壓所有的文件0.20.2進入/home/micah/hadoop-install/。我已經編輯我conf/hdfs-site.xml具有以下設置,並建立了相應的目錄:

<configuration> 
    <property> 
    <name>fs.default.name</name> 
    <value>localhost:9000</value> 
    </property> 
    <property> 
    <name>dfs.data.dir</name> 
    <value>/home/micah/hdfs/data</value> 
    </property> 
    <property> 
    <name>dfs.name.dir</name> 
    <value>/home/micah/hdfs/name</value> 
    </property> 
</configuration> 

我然後跑bin/hadoop namenode -format其次bin/start-dfs.sh

+0

如果您嘗試,會發生什麼: '斌/ FS Hadoop的HDFS -ls://本地主機:9000'? – 2011-03-11 21:50:57

+0

11/03/11 16:54:13信息ipc.Client:重試連接到服務器:localhost/127.0.0.1:9000。已經嘗試0次(s)。 – Micah 2011-03-11 21:54:40

+0

它不斷重試,給我上面 – Micah 2011-03-11 21:56:35

回答

4

試試這個:

#http://www.mail-archive.com/[email protected]/msg00407.html 
    rm -r /tmp/hadoop**** 
    build $HADOOP_HOME 
    echo export JAVA_HOME=$JAVA_HOME >> $HADOOP_HOME/conf/hadoop-env.sh 
    echoThenRun "$HADOOP_HOME/bin/stop-all.sh" 
    echoThenRun "$HADOOP_HOME/bin/hadoop namenode -format" 
+1

有這個問題,這個解決方案解決了它。謝謝。 – tbroberg 2012-06-05 06:59:00

1

我也有類似的問題,並發現我的HDFS數據目錄的權限是錯誤的。與chmod -R g-w從數據目錄

卸下組寫特權固定的問題。

1

謝謝,執行下列操作解決了我的問題

rm -r /tmp/hadoop**** 
    build $HADOOP_HOME 
    echo export JAVA_HOME=$JAVA_HOME >> $HADOOP_HOME/conf/hadoop-env.sh 
    echoThenRun "$HADOOP_HOME/bin/stop-all.sh" 
    echoThenRun "$HADOOP_HOME/bin/hadoop namenode -format"