hdfs datanode大量tcp连接处于关闭等待状态

zf2sa74q  于 2021-06-01  发布在  Hadoop
关注(0)|答案(0)|浏览(436)

我在我的测试床上使用apachedruid和hdfs的容器化部署。在稳定运行5天后,我看到一个hdfs工作人员在hdfs ui上报告为死亡。在这个“死”worker的容器中,我看到进程仍然处于活动状态,但是有数千个tcp连接处于close\u wait状态。我看到hdfs jira页面上针对不同版本的hdfs提交了很多问题。
hdfs版本:2.7.5。
容器ulimit:最多1048576个文件。
Druid是唯一与hdfs接口的组件。没有编写过调用close()失败的自定义代码。
有没有人见过类似的问题并解决了它?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题