是什么导致hadoop数据节点被排除在操作之外?

d7v8vwbk  于 2021-07-13  发布在  Hadoop
关注(0)|答案(1)|浏览(473)

我在一个2 datanode hadoop集群上运行k-means作业。当输入数据足够大(1.5gb)时,我会得到以下错误:
有2个数据节点正在运行,并且在此操作中没有排除任何节点,并且在此操作中排除了2个数据节点。
该操作正在写入一个文件,如我还收到的消息所示:文件只能写入1个复制节点中的0个。
为什么要从这个操作中排除任何datanode?是因为他们忙于其他工作吗?在那种情况下,我该如何解决这个问题?

vwhgwdsa

vwhgwdsa1#

在k-means作业期间,datanodes上的磁盘空间似乎用完了。这就是导致节点被排除在文件写入之外的原因。似乎还有足够的空间,但是节点已经被排除在磁盘空间使用率为90%的情况下。
简而言之:磁盘空间不足会将节点排除在文件写入操作之外。

相关问题