2
我有一個主節點和2個節點(worker + datanode)的spark集羣。
我想添加另一個datanode。 的問題是,當我這樣做hdfs dfs -setrep -R -w 2
,結果是:在正在運行的spark/hadoop集羣中添加一個hdfs datanode
1st datanode -> DFS Used%: 75.61%
2nd datanode -> DFS Used%: 66.78%
3rd datanode -> DFS Used%: 8.83%
你知道該怎麼做管理,以平衡在HDFS塊爲30 - > 33%,每個approximatly?
感謝
您應該設置三個副本,以便使用所有三個datanodes。 –