此错误信息显示:
查询中出错:org.apache.hadoop.hive.ql.metadata.hiveexception:metaexception(message:got exception:java.net.connectexception从undefined.hostname.localhost/192.168.xx.调用到localhost:9000 failed on连接异常:java.net.connectexception:连接被拒绝;有关详细信息,请参阅:http://wiki.apache.org/hadoop/connectionrefused);
我不明白我为什么要去参观博物馆localhost:9000,my core-site.xml中的主机是hdfs://192.168.xx.xx:9000,我为什么要来localhost:9000
它是默认主机吗?
5条答案
按热度按时间6qqygrtg1#
您的错误与hdfs有关,而不是hive或sparksql
你需要确保你的
HADOOP_HOME
或者HADOOP_CONF_DIR
是否在spark-env.sh
如果您想连接到正确的hadoop环境,而不是使用默认值。xtfmy6hx2#
我在mysql中重置了metastore。当时我在core-site.xml中使用localhost,初始化了metastore,所以我重置了metastore,问题就解决了。
toiithl63#
首先,转到mysql命令行,删除在hive-site.xml中设置的数据库(metastore)。
然后,将dictory改为$hive\u home/bin,执行schematool-initschema-dbtype mysql,问题就解决了,因为mysql中的metastore太晚了(我已经在待机环境中设置了metastore),我稍后会转向集群环境,但是metastore是前面的,所以我可以在hive中创建表,而不是在sparksql中。
谢谢帮助我的人@ravikumar,@cricket_007
7jmck4yq4#
在hive-site.xml中,可以如下配置。请配置配置单元元存储详细信息。
xqkwcwgp5#
请确保您的spark config目录/etc/spark/conf/中存在hive-site.xml,并配置配置单元配置设置。