我在yark上使用unix脚本和spark submit命令提交spark作业。我正在检查unix的if else块中spark job的状态并抛出错误,但是我观察到,如果spark job失败或不完整,它仍然显示为成功,unix脚本无法获得正确的作业状态并退出脚本。我检查了堆栈溢出的其他答案,但没有得到想要的答案。如果实施成功,谁能帮忙。
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!