所以,正如你在这里看到的,我在安装Hive时遇到了麻烦(信息:ubuntu 16.04,java 8,hadoop 2.7.2,spark 1.6.2,hive 2.0.1)
我已经解决了一些错误,但是现在当我尝试 hive
在cli中,出现以下错误:
线程“main”java.lang.runtimeexception:java.net.connectexception:fma virtualbox/127.0.1.1到的调用localhost:54310 failed 连接异常:java.net.connectexception:connexion refusée类;有关详细信息,请参阅:http://wiki.apache.org/hadoop/connectionrefused
我去了apache wiki的链接,如果我理解的很好,我想我的问题的原因在这一部分中解释:
引用:
如果错误消息说远程服务在“127.0.0.1”或“localhost”上,则意味着配置文件正在告诉客户端该服务在本地服务器上。如果您的客户机正试图与远程系统通信,那么您的配置将被破坏。
检查一下,在/etc/hosts中没有一个主机名条目Map到127.0.0.1或127.0.1.1(ubuntu为此而臭名昭著)。
所以我做了 cat /etc/hosts
,我得到:
127.0.0.1 localhost
127.0.1.1 fma-VirtualBox
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
所以我想我找到了问题所在。但是,我不知道如何修复它。我是不是应该去掉前两行 etc/hosts
? 或者把它们编辑成别的?或者我认为我发现了问题是错的?
谢谢。
暂无答案!
目前还没有任何答案,快来回答吧!