无法在unix shell终端中通过spark查看配置单元中创建的表

dzjeubhm  于 2021-06-26  发布在  Hive
关注(0)|答案(1)|浏览(239)

在hive中通过shell和spark(eclipse上的scala)创建的表都是相同的吗?
如果是的话,我会得到不同的表和数据库列表。
怎么解决?

vdgimpew

vdgimpew1#

spark需要配置来检测Hive。
添加 hive-site.xml 在你的类路径中。
如果没有这些配置,spark将把配置单元表本地存储在 metastore_db 项目根目录中的文件夹。

相关问题