我在我的盒子里配置了hadoop设置,并使用示例程序,一切都很好,运行良好,所有守护进程也处于运行状态。第二天早上数据节点没有运行。
2o7dmzc51#
我也有同样的问题。。。我通过更改hdfs-site.xml中的字段来解决这个问题。。。。。。以前我的字段的值是…${user.home}/hadoop/data/datanode,我将其更改为$/hadoop/data/datanode,datanode启动
nnt7mjpx2#
我用以下方法解决了这个问题:1.在位于/etc的文件“hostname”中写入“localhost”,然后重新启动即可。
dohp0rv53#
尝试重新启动hadoop并格式化namenode。通常在重启hadoop时问题就解决了
vuktfyat4#
停止所有服务。将主机名添加到conf/slaves并运行start-all.sh
4条答案
按热度按时间2o7dmzc51#
我也有同样的问题。。。我通过更改hdfs-site.xml中的字段来解决这个问题。。。。。。以前我的字段的值是…${user.home}/hadoop/data/datanode,我将其更改为$/hadoop/data/datanode,datanode启动
nnt7mjpx2#
我用以下方法解决了这个问题:
1.在位于/etc的文件“hostname”中写入“localhost”,然后重新启动即可。
dohp0rv53#
尝试重新启动hadoop并格式化namenode。通常在重启hadoop时问题就解决了
vuktfyat4#
停止所有服务。将主机名添加到conf/slaves并运行start-all.sh