我正在尝试执行以下操作:
import hiveContext.implicits._
val productDF=hivecontext.sql("select * from productstorehtable2")
println(productDF.show())
我得到的错误是
org.apache.spark.sql.analysisexception:未找到表或视图:productstorehtable2;线路1位置14
我不知道为什么会这样。
我在spark配置中使用过这个
set(“spark.sql.warehouse.dir”hdfs://quickstart.cloudera:8020/user/hive/warehouse“)
以及我描述格式化产品存储表2的位置
hdfs://quickstart.cloudera:8020/用户/配置单元/仓库/产品存储表2
我已使用此代码创建表
create external table if not exists productstorehtable2
(
device string,
date string,
word string,
count int
)
row format delimited fields terminated by ','
location 'hdfs://quickstart.cloudera:8020/user/cloudera/hadoop/hive/warehouse/VerizonProduct2';
我使用sbt(带spark依赖项)来运行应用程序。我的操作系统是centos,我有spark 2.0
有人能帮我找出哪里出了问题吗?
编辑:
当我执行println(hivecontext.sql(“show tables”)时,它只输出一个空行
谢谢
暂无答案!
目前还没有任何答案,快来回答吧!