如何在spark jdbc savemode.overwrite中进行异常处理?

s1ag04yj  于 2021-07-14  发布在  Spark
关注(0)|答案(0)|浏览(253)

我有一份给postgres数据库写信的好工作。我当前正在使用savemode.overwrite with truncate=true。因此,每当spark作业运行时,它都会截断表并写入数据。
我想知道在执行insert覆盖时,spark作业失败是否可能导致数据被截断而不是insert?
我正在努力确保,如果spark工作失败,我不会以一张空table告终。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题