pyspark中try和except块的问题

wb1gzix0  于 2021-06-26  发布在  Hive
关注(0)|答案(0)|浏览(382)

我使用spark-2.1。下面是我的代码

delta="insert overwrite table schema1.table1 select * from schema2.table2"

    try:
             spark.sql(delta)
    except Exception as e:
             spark.sql("drop table schema2.table2")
             print("Overall load failed for schema1.table1", e)

    sqlCtx.sql("drop table schema1.table1 ")

下面是我正在尝试的
从另一个schema2的另一个表2插入schema1的表1。
我把它放在一个try块中,这样如果它成功了,它将跳转到except condition,并为schema1.table1打印消息overall load failed。
现在的问题是,每当我执行上述语句时,它都会在模式中删除表。pyspark不受python的try-and-catch控制
我感觉不去尝试它是进入捕捉块和下降
请帮助我们跨过这个障碍
提前谢谢!

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题