hive上带有apache spark的超集

7gcisfzg  于 2021-06-25  发布在  Hive
关注(0)|答案(1)|浏览(372)

我已经通过docker在本地机器上安装了apache超集。我有一个单独的生产20节点Spark集群与Hive作为元商店。我希望我的超集能够连接到配置单元并通过sparksql运行查询。为了连接到hive,我尝试了以下方法
添加数据库-->sqlalchemy uri* hive://hive@<hostname>:10000/default 但是当我测试连接时,它给出了一些错误。我想我得挖隧道,但我不知道怎么挖。我也有 hive 储蓄服务器。
请告诉我如何进行

vbkedwbf

vbkedwbf1#

您收到的错误是什么?尽管文档没有提到这一点,但提供连接url的最佳方式是以下格式:

hive://<url>/default?auth=NONE    ( when there is no security )
hive://<url>/default?auth=KERBEROS
hive://<url>/default?auth=LDAP

相关问题