1
A
回答
0
的情況時,一個data node
下降,name node
會看到一些數據塊under-replicated
並開始複製到其他節點的集羣中,使複製回預期的水平(默認3)。
當損壞的節點再次上升時,來自該節點的所有塊將被看作具有4個副本的over-replicated
。
當一個塊變爲over-replicated
時,name node
會選擇要刪除的副本。 name node
寧願不減少託管副本的機架數量,其次更願意使用最少量的可用磁盤空間從data node
中刪除副本。這可能有助於重新平衡羣集上的負載。
0
NameNode負責過度複製塊,您不必擔心過度複製塊或手動執行任何操作。
Namenode從具有較少可用磁盤空間的節點中刪除過度複製的塊..這最終有助於羣集重新平衡。
相關問題
- 1. hadoop中的錯誤
- 2. Hadoop中的FSIMAGE和EDIT文件的內容命令錯誤
- 3. hadoop examples.jar中的錯誤
- 4. NoClassDefFoundError的錯誤在Hadoop中
- 5. hadoop中的JPS錯誤
- 6. Hadoop上的Servlet容器?
- 7. 查看hdfs中的文件內容hadoop
- 8. YARN(Hadoop)中的容器分配代碼
- 9. 的hadoop streaming錯誤
- 10. 錯誤,而在Hadoop中
- 11. Hadoop DFS錯誤
- 12. Hadoop setInputPathFilter錯誤
- 13. hadoop版本不兼容
- 14. 兼容性hbase和hadoop
- 15. GFS/Hadoop主存儲容量
- 16. R工具兼容apache hadoop
- 17. hadoop中的hadoop-eclipse-plugin.jar 0.23.5
- 18. Hadoop 1.0.3的推薦默認hadoop-metrics2.properties內容是什麼?
- 19. Hadoop的HBase的+的兼容性問題
- 20. 的Hadoop MapReduce的錯誤
- 21. 錯誤:$ Hadoop的NameNode的-format
- 22. 的Hadoop MapReduce的錯誤:org.apache.hadoop.mapreduce.Counter
- 23. Hadoop在Eclipse中的位置(錯誤:null)
- 24. namenode格式化中的Hadoop錯誤
- 25. hadoop mapreduce程序中的錯誤
- 26. Python中的Hadoop Streaming Job失敗錯誤
- 27. Hadoop TaskRunner中的Java子錯誤
- 28. Hadoop的安裝錯誤
- 29. Hadoop的錯誤DFS -copyFromLocal
- 30. Windows上的Hadoop錯誤:java.lang.UnsatisfiedLinkError
舊的節點元數據將從Namenode中刪除,因此即使已損壞的節點恢復運行,名稱節點也不會有關於存儲在其中的數據的元數據。因此,Hadoop將擁有3個副本(2箇舊副本和1個新副本創建後,其中一箇舊副本被損壞) –