我有一个4节点的hadoop集群。它运转良好。我使用以下命令临时停止hadoop群集:
stop-dfs.sh
stop-yarn.sh
当我使用以下命令重新启动时:
start-dfs.sh
start-yarn.sh
所有jps(hadoop进程)在所有4个节点上运行正常,但在运行map reduce作业时显示以下错误日志:
org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/hduser4/QuasiMonteCarlo_14 21995096158_792628557/in/part0 could only be replicated to 0 nodes instead of minReplication (=1).
There are 0 datanode(s) running and no node(s) are excluded in this operation.
解决上述问题的一个选择是重新格式化hdfs,但它将删除我的现有数据,这对于生产系统来说不是一个合适的解决方案。
暂无答案!
目前还没有任何答案,快来回答吧!