我有一份给postgres数据库写信的好工作。我当前正在使用savemode.overwrite with truncate=true。因此,每当spark作业运行时,它都会截断表并写入数据。
我想知道在执行insert覆盖时,spark作业失败是否可能导致数据被截断而不是insert?
我正在努力确保,如果spark工作失败,我不会以一张空table告终。
我有一份给postgres数据库写信的好工作。我当前正在使用savemode.overwrite with truncate=true。因此,每当spark作业运行时,它都会截断表并写入数据。
我想知道在执行insert覆盖时,spark作业失败是否可能导致数据被截断而不是insert?
我正在努力确保,如果spark工作失败,我不会以一张空table告终。
暂无答案!
目前还没有任何答案,快来回答吧!