如何将spark结构化流数据写入hive?

t30tvxxf  于 2021-06-26  发布在  Hive
关注(0)|答案(1)|浏览(417)

如何将spark结构化流数据写入hive?
df.write().saveAsTable(tablename) 但是,我不确定这是否写入流数据
我通常是这样的 df.writeStream().trigger(new ProcessingTime(1000)).foreach(new KafkaSink()).start() 将流式数据写入kafka,但我没有看到任何类似于将流式数据写入hive数据仓库的内容。有什么想法吗?

wz3gfoph

wz3gfoph1#

df.createOrReplaceTempView("mytable") 
spark.sql("create table mytable as select * from mytable");

df.write().mode(SaveMode.Overwrite).saveAsTable("dbName.tableName");

相关问题