找不到表或视图将配置单元表转换为sparkDataframe

nqwrtyyt  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(239)

我正在尝试执行以下操作:

import hiveContext.implicits._

val productDF=hivecontext.sql("select * from productstorehtable2")
println(productDF.show())

我得到的错误是
org.apache.spark.sql.analysisexception:未找到表或视图:productstorehtable2;线路1位置14
我不知道为什么会这样。
我在spark配置中使用过这个
set(“spark.sql.warehouse.dir”hdfs://quickstart.cloudera:8020/user/hive/warehouse“)
以及我描述格式化产品存储表2的位置
hdfs://quickstart.cloudera:8020/用户/配置单元/仓库/产品存储表2
我已使用此代码创建表

create external table if not exists productstorehtable2
(
device  string,
date  string,
word  string,
count  int
)
row format delimited fields terminated by ','
location 'hdfs://quickstart.cloudera:8020/user/cloudera/hadoop/hive/warehouse/VerizonProduct2';

我使用sbt(带spark依赖项)来运行应用程序。我的操作系统是centos,我有spark 2.0
有人能帮我找出哪里出了问题吗?
编辑:
当我执行println(hivecontext.sql(“show tables”)时,它只输出一个空行
谢谢

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题