我在我的测试床上使用apachedruid和hdfs的容器化部署。在稳定运行5天后,我看到一个hdfs工作人员在hdfs ui上报告为死亡。在这个“死”worker的容器中,我看到进程仍然处于活动状态,但是有数千个tcp连接处于close\u wait状态。我看到hdfs jira页面上针对不同版本的hdfs提交了很多问题。
hdfs版本:2.7.5。
容器ulimit:最多1048576个文件。
Druid是唯一与hdfs接口的组件。没有编写过调用close()失败的自定义代码。
有没有人见过类似的问题并解决了它?
暂无答案!
目前还没有任何答案,快来回答吧!