我想知道,当我在map或reduce任务中检测到错误时,是否有方法停止作业(并使其处于失败或终止状态),而不使用hadoop重试任务。如果可能的话,我想保留一个事实,即在“正常”情况下无法重新启动任务。目前我抛出了一个异常,但是hadoop再次尝试。它是scala/spark代码,但在java/hadoop中也可能有用。谢谢
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!