我所有的節點都起來,當我們看到使用jps
命令運行錯誤,但我仍無法連接到HDFS文件系統。每當我點擊Browse the filesystem
上的Hadoop的Namenode本地主機:8020頁,這是我得到的是Connection Refused
錯誤。此外我已經嘗試格式化並重新啓動namenode,但仍然存在錯誤。任何人都可以請幫我解決這個問題。「連接被拒絕」了的Namenode-HDFS(Hadoop的問題)
5
A
回答
6
檢查是否所有的服務都是由運行jps
命令運行JobTracker, Jps, NameNode. DataNode, TaskTracker
。
嘗試運行一個啓動它們一個:
./bin/stop-all.sh
./bin/hadoop-daemon.sh start namenode
./bin/hadoop-daemon.sh start jobtracker
./bin/hadoop-daemon.sh start tasktracker
./bin/hadoop-daemon.sh start datanode
如果你仍然得到錯誤,再次阻止他們,並清潔你的臨時存儲目錄。該目錄細節是在配置文件./conf/core-site.xml
和運行,
./bin/stop-all.sh
rm -rf /tmp/hadoop*
./bin/hadoop namenode -format
檢查在./logs
文件夾中的日誌。
tail -200 hadoop*jobtracker*.log
tail -200 hadoop*namenode*.log
tail -200 hadoop*datanode*.log
希望它能幫助。
2
HDFS可以使用端口9000在一定的分佈/構建。
請仔細檢查你的名字節點端口。
+0
這是我與星火2.0.2運行一個新的Hadoop集羣修復。 – 2016-12-23 05:56:28
0
改變核心-site.xml中
<property>
<name>fs.default.name</name>
<value>hdfs://hadoopvm:8020</value>
<final>true</final>
</property>
變化的IP地址。
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.132.129:8020</value>
<final>true</final>
</property>
相關問題
- 1. Hadoop連接拒絕
- 2. 多節點Hadoop問題(連接被拒絕)
- 3. 連接被拒絕
- 4. 連接被拒絕
- 5. 的file_get_contents:連接被拒絕
- 6. ActiveMQ的連接被拒絕
- 7. 的MySQL連接被拒絕
- 8. Selenium WebDriver:連接被拒絕(連接被拒絕)
- 9. java.net.ConnectException:連接被拒絕(連接被拒絕)
- 10. UnknownError:連接被拒絕(連接被拒絕)
- 11. 訪問被拒絕...連接到MySQL DB
- 12. JDBC連接:訪問被拒絕
- 13. 無法檢查hadoop上的節點[連接被拒絕]
- 14. httphostconnectexception連接被拒絕
- 15. 連接被拒絕Elasticsearch 2.2
- 16. RMI連接被拒絕
- 17. ssh wget連接被拒絕
- 18. logspout寫:連接被拒絕
- 19. Zookeeper -Kafka:ConnectException - 連接被拒絕
- 20. aws ssh連接被拒絕
- 21. SVN連接被拒絕
- 22. geckodriver連接被拒絕
- 23. KafkaProducer連接被拒絕
- 24. Boot-clj連接被拒絕
- 25. FTPClient連接被拒絕
- 26. 捲曲連接被拒絕
- 27. JDBC- postgres,連接被拒絕
- 28. Scrapy:連接被拒絕
- 29. Spark EC2連接被拒絕
- 30. get_meta_tags()連接被拒絕
感謝它爲我工作 – nayab 2013-09-03 09:45:08
感謝它幫 – 2016-07-07 09:31:24