在使用配置单元仓库连接器通过hdp3.0.1中的sparkshell写入配置单元表内容后,无法读取该配置单元表内容

qyuhtwio  于 2021-05-29  发布在  Spark
关注(0)|答案(0)|浏览(224)

我已经在hive中使用hive仓库连接器编写了表。但写完后我看不懂同样的内容。以下是所用命令的详细信息:
写入数据的命令:

hive.createTable("sales_22feb").ifNotExists().column("userid","string").column("ordertime","string").column("saleamount","string").column("orderid","string").create()

val df= spark.read.csv("/tmp/sales.csv")

df.write.format("com.hortonworks.spark.sql.hive.llap.HiveWarehouseConnector").option("table", "sales_22feb").mode("append").save()

读取数据的命令:

val hive = com.hortonworks.spark.sql.hive.llap.HiveWarehouseBuilder.session(spark).build() 

hive.setDatabase("default")

val df=hive.executeQuery("select * from sales_22feb")

df.show(5,false)

获取以下错误:

20/06/25 16:43:54 WARN TaskSetManager: Lost task 0.0 in stage 1.0 (TID 4, sandbox-hdp.hortonworks.com, executor 1):java.lang.RunTimeException: java.lang.NullPointerException: hive.llap.daemon.service.hosts must be defined

不过,我可以看到相同的内容使用Hive壳。请帮我解决这个问题。
提前谢谢。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题