如果hadoop数据节点文件夹的数量不同,是否会发生块复制问题?

huwehgph  于 2021-05-27  发布在  Hadoop
关注(0)|答案(1)|浏览(345)

假设集群中有20个节点,15个节点有10个子文件夹,比如/data01/data10和其他5个节点有6个子文件夹。数据节点文件夹数量不平衡。
在这种情况下,在块复制中产生问题的可能性是否更高(例如,replicationnotfoundexception、blockmissingexception)
如果是这样,在这种情况下除了添加磁盘之外还能做什么?谢谢您。

wyyhbhjk

wyyhbhjk1#

块复制在复制数据时考虑机架感知,并根据复制因子集进行复制(在总体hdfs级别或每个文件级别等)
如果没有正确的过程(在数据上传到hdfs之后)就删除了磁盘,则可能会发生块丢失异常,但复制将自动完成。

相关问题