我正在使用hadoop3.1.2和jdk-12.0.1操作伪分布式模式。到目前为止,从命令行一切似乎正常工作,我可以上传文件检索从hdfs和本地。由于某种原因,当我打开namenode时,它实际上是通过http://ip:9870并导航到实用程序/浏览目录,浏览器打开,这是突出显示的“从/webhdfs/v1/?op=liststatus:server error检索数据失败”我知道在使用hadoop时,有人在错误“从/webhdfs/v1/?op=liststatus:server error检索数据失败”之前问过这个问题,但答案不满意,这就是我重新打开案例的原因。
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>file:///home/debian/hadoopdata/hdfs/namenode</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>file:///home/debian/hadoopdata/hdfs/datanode</value>
</property>
</configuration>
我的输出 netstat -ntlp
万一有什么东西不见了
tcp 0 0 0.0.0.0:9864 0.0.0.0:* LISTEN 6033/java
tcp 0 0 192.168.0.250:9000 0.0.0.0:* LISTEN 5935/java
tcp 0 0 0.0.0.0:9866 0.0.0.0:* LISTEN 6033/java
tcp 0 0 0.0.0.0:9867 0.0.0.0:* LISTEN 6033/java
tcp 0 0 0.0.0.0:9868 0.0.0.0:* LISTEN 6196/java
tcp 0 0 0.0.0.0:9870 0.0.0.0:* LISTEN 5935/java
tcp 0 0 127.0.0.1:46613 0.0.0.0:* LISTEN 6033/java
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN
2条答案
按热度按时间iyr7buue1#
您已经发现hadoop不支持java12(截至2019年2月7日)。
wiki hadoop java版本描述了当前支持的java版本。
要查看何时支持Java11LTS,您可以跟踪这个jira。
hadoop-15338支持hadoop中的java 11 lts
ahy6op9u2#
好的,我最终解决了我很难改变java版本和使用的问题
1.8.0_201
这解决了我的问题。每件事都在按预期工作,一个快速的笔记给任何一个人如何运行到这个问题不要使用java9,10,11,12与hadoop他们没有发挥好你会得到各种奇怪的行为。在我写这篇文章的时候,我已经在名单上了:)就是这样。端口8042现在启动,我也可以访问浏览器http://ip:8042