hadoop/spark:终止任务而不重试

vnjpjtjt  于 2021-06-01  发布在  Hadoop
关注(0)|答案(0)|浏览(195)

我想知道,当我在map或reduce任务中检测到错误时,是否有方法停止作业(并使其处于失败或终止状态),而不使用hadoop重试任务。
如果可能的话,我想保留一个事实,即在“正常”情况下无法重新启动任务。
目前我抛出了一个异常,但是hadoop再次尝试。
它是scala/spark代码,但在java/hadoop中也可能有用。
谢谢

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题