我们已经建立了一个有6个从节点的集群。我试图了解当其中一个datanode死亡时,复制是如何发生的。我登录了其中一个从节点,并使用kill-9命令杀死了datanode。一段时间后,datanode自动重启,hdfs恢复正常状态。我正在验证这一点,因为datanode的pid已经更改。我没有看到任何关于datanode的上述行为的文档。这是apachehadoop还是cloudera的cdh特性?任何参考文件都将不胜感激。
eqzww0vc1#
由于datanode的pid已经改变,我不认为这是datanode的行为。如果您使用cloudera管理器管理集群,那么可以选择在datanode守护进程失败时重新启动它(自动重新启动进程)。默认情况下将设置此选项。当datanode进程失败或终止时,设置了自动重启选项 Cloudera Scm agent 将启动datanode守护进程。对于自动重启选项:选择hdfs服务->转到配置部分->搜索 automatic restart .这个特性在cm4.x版本中也可以使用。
Cloudera Scm agent
automatic restart
1条答案
按热度按时间eqzww0vc1#
由于datanode的pid已经改变,我不认为这是datanode的行为。如果您使用cloudera管理器管理集群,那么可以选择在datanode守护进程失败时重新启动它(自动重新启动进程)。默认情况下将设置此选项。当datanode进程失败或终止时,设置了自动重启选项
Cloudera Scm agent
将启动datanode守护进程。对于自动重启选项:选择hdfs服务->转到配置部分->搜索
automatic restart
.这个特性在cm4.x版本中也可以使用。