我使用spark-2.1。下面是我的代码
delta="insert overwrite table schema1.table1 select * from schema2.table2"
try:
spark.sql(delta)
except Exception as e:
spark.sql("drop table schema2.table2")
print("Overall load failed for schema1.table1", e)
sqlCtx.sql("drop table schema1.table1 ")
下面是我正在尝试的
从另一个schema2的另一个表2插入schema1的表1。
我把它放在一个try块中,这样如果它成功了,它将跳转到except condition,并为schema1.table1打印消息overall load failed。
现在的问题是,每当我执行上述语句时,它都会在模式中删除表。pyspark不受python的try-and-catch控制
我感觉不去尝试它是进入捕捉块和下降
请帮助我们跨过这个障碍
提前谢谢!
暂无答案!
目前还没有任何答案,快来回答吧!