将apache超集连接到apachesparksql

lkaoscv7  于 2021-07-12  发布在  Spark
关注(0)|答案(0)|浏览(270)

我试图通过puretransport(使用thrift)和sqlalchemy将apache超集连接到我的jupyter笔记本(spark sql),如下所示:

transport = transport_factory(host='localhost', port=1000, username='temp', password='temp123')

engine = create_engine('hive://temp:temp123@/local',
                       connect_args={'thrift_transport': transport})

然后,我尝试使用以下配置单元uri测试超集中的连接(我正在docker上运行超集,因此需要使用host.docker.internal作为主机名来访问我的计算机):

hive://temp:temp123@host.docker.internal:1000/local

但我明白了:

ERROR: Unexpected error occurred, please check your logs for details
after testing connection.

当我转到日志检查错误时,我得到:

172.17.0.1 - - [08/Mar/2021:11:10:14 +0000] "POST /api/v1/database/test_connection HTTP/1.1" 422 76 "http://localhost:8080/databaseview/list/?pageIndex=0&sortColumn=changed_on_delta_humanized&sortOrder=desc" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36"

我不知道这意味着什么,为什么会发生。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题