在rdbms上执行dml时,有没有一种方法可以在spark中实现提交和回滚?我正在从事一项任务,涉及在SQLServer中插入和更新记录。我正在用jdbc运行spark中的sqoop命令。我想通过实现回滚特性为失败做好准备,以便在dml操作中途作业失败的情况下,我想恢复到rdbms所在的前一阶段。这可以用scala在spark中实现吗?我在网上做了很多搜索,却找不到解决办法。任何帮助或指针,我可以得到相关信息将不胜感激。
提前谢谢。
在rdbms上执行dml时,有没有一种方法可以在spark中实现提交和回滚?我正在从事一项任务,涉及在SQLServer中插入和更新记录。我正在用jdbc运行spark中的sqoop命令。我想通过实现回滚特性为失败做好准备,以便在dml操作中途作业失败的情况下,我想恢复到rdbms所在的前一阶段。这可以用scala在spark中实现吗?我在网上做了很多搜索,却找不到解决办法。任何帮助或指针,我可以得到相关信息将不胜感激。
提前谢谢。
暂无答案!
目前还没有任何答案,快来回答吧!