第一步。old_df=pyspark jdbc读取表并生成Dataframe
第二步。new\u df=请求api并生成Dataframe
第三步。旧的和新的有相同的模式(printschima是相同的)
第四步。union\u df=从旧的\u df union选择col1、col2、col2从新的\u df union选择col1、col2、col2
第五步。union\u df.jdbc.write(mode=“overwrite”).option(“truncate”,“true”),,,
我希望覆盖unino\u df的所有行。但表只被新的\u df覆盖
我该怎么做?
暂无答案!
目前还没有任何答案,快来回答吧!