spark不会显示所有的配置单元数据库

im9ewurl  于 2021-06-01  发布在  Hadoop
关注(0)|答案(2)|浏览(278)

如果我列出配置单元中的所有数据库,我会得到以下结果(我有两个表default ans sbm):

但如果我尝试在spark里做同样的事情,我会得到这个

它不显示数据库sbm。

r6l8ljro

r6l8ljro1#

你连接到Hive元商店了吗?您是否指定了metastore详细信息的某处(即spark conf目录中的hive-site.xml)?好像你和当地的梅拉斯托尔有联系。

w8f9ii69

w8f9ii692#

我认为您需要将hive-site.xml复制到spark/conf目录。
如果您使用ubuntu并定义了环境变量,请使用下一个命令:
cp$hive\u home/conf/hive-site.xml$spark\u home/conf

相关问题