我有一个spark集群,有1个主节点和2个节点(worker+datanode)。
我想添加另一个数据节点。问题是,当我这么做的时候 hdfs dfs -setrep -R -w 2
,结果是:
1st datanode -> DFS Used%: 75.61%
2nd datanode -> DFS Used%: 66.78%
3rd datanode -> DFS Used%: 8.83%
你知道如何平衡hdfs中的数据块,使每个数据块的比例接近30%->33%吗?
谢谢
1条答案
按热度按时间ecbunoof1#
跑
balancer
,群集平衡实用程序。这将在datanodes之间重新平衡数据。