我想知道spark dataframe saving是否有任何特性,即当它将数据写入impala表时,它也会在impala中以前没有创建该表时创建该表。
例如,代码:
myDataframe.write.mode(SaveMode.Overwrite).jdbc(jdbcURL, "books", connectionProperties)
如果表不存在,则应创建该表。
表架构应根据Dataframe架构确定。
我期待着您的建议/意见。
你好,弗洛林
我想知道spark dataframe saving是否有任何特性,即当它将数据写入impala表时,它也会在impala中以前没有创建该表时创建该表。
例如,代码:
myDataframe.write.mode(SaveMode.Overwrite).jdbc(jdbcURL, "books", connectionProperties)
如果表不存在,则应创建该表。
表架构应根据Dataframe架构确定。
我期待着您的建议/意见。
你好,弗洛林
2条答案
按热度按时间w8rqjzmb1#
或者
通过命令传递驱动程序jar
spark shell—驱动程序类路径
wecizke32#
我在过去通过mutatestatement.execute和相关的ddl创建了表。我检查了Spark2.x,append也自动创建了它。sp append就是你所需要的。
对于jdbc:
对于通过spark 2.x自动配置单元上下文的配置单元: