hadoop name节点尚未启动

inb24sb2  于 2021-05-29  发布在  Hadoop
关注(0)|答案(4)|浏览(326)

我正在尝试以完全分布式模式配置hadoop,其中1个主节点和1个从节点是不同的节点。我附上了一个屏幕截图,显示了我的主节点和从节点的状态。
在母版中:ubuntu@hadoop-master:/usr/local/hadoop/etc/hadoop$$hadoop\u home/bin/hdfs dfsadmin-刷新节点
refreshnodes:发生本地异常时失败:com.google.protobuf.invalidprotocolbufferexception:协议消息标记的连线类型无效。;主机详细信息:本地主机为:“hadoop master/127.0.0.1”;目的主机为:“hadoop master”:8020;
这是我在尝试运行refresh nodes命令时遇到的错误。有人能告诉我我错过了什么或者我犯了什么错误吗?
主从屏幕截图
2016-04-26 03:29:17090 info org.apache.hadoop.hdfs.server.namenode.fsnamesystem:为待机状态停止服务已启动2016-04-26 03:29:17095 info org.mortbay.log:已停止httpserver2$selectchannelconnectorwithsafestartup@0.0.0.0:50070 2016-04-26 03:29:17,095 info org.apache.hadoop.metrics2.impl.metricssystemimpl:正在停止namenode度量系统。。。2016-04-26 03:29:17095 info org.apache.hadoop.metrics2.impl.metricssystemimpl:namenode metrics系统已停止。2016-04-26 03:29:17096 info org.apache.hadoop.metrics2.impl.metricssystemimpl:namenode metrics系统关闭完成。2016-04-26 03:29:17097错误org.apache.hadoop.hdfs.server.namenode.namenode:无法启动namenode。java.net.bindexception:绑定到[hadoop]时出现问题-master:8020]java.net.bindexception:地址已在使用中;有关详细信息,请参阅:http://wiki.apache.org/hadoop/bindexception 在sun.reflect.nativeconstructoraccessorimpl.newinstance0(本机方法)在sun.reflect.nativeconstructoraccessorimpl.newinstance(nativeconstructoraccessorimpl)。java:57)在sun.reflect.delegatingconstructoraccessorimpl.newinstance(delegatingconstructoraccessorimpl。java:45)在java.lang.reflect.constructor.newinstance(构造函数。java:526)在org.apache.hadoop.net.netutils.wrapwithmessage(netutils。java:792)在org.apache.hadoop.net.netutils.wrapexception(netutils。java:721)在org.apache.hadoop.ipc.server.bind(server。java:425)在org.apache.hadoop.ipc.server$listener.server。java:574)在org.apache.hadoop.ipc.server.(服务器。java:2215)在org.apache.hadoop.ipc.rpc$服务器上。java:938)在org.apache.hadoop.ipc.protobufrpceengine$服务器上。java:534)在org.apache.hadoop.ipc.protobufrpceengine.getserver(protobufrpceengine。java:509)在org.apache.hadoop.ipc.rpc$builder.build(rpc。java:783)在org.apache.hadoop.hdfs.server.namenode.namenoderpcserver.(namenoderpcserver。java:344)在org.apache.hadoop.hdfs.server.namenode.namenode.createrpcserver(namenode。java:673)在org.apache.hadoop.hdfs.server.namenode.namenode.initialize(namenode。java:646)在org.apache.hadoop.hdfs.server.namenode.namenode。java:811)在org.apache.hadoop.hdfs.server.namenode.namenode.(namenode。java:795)在org.apache.hadoop.hdfs.server.namenode.namenode.createnamenode(namenode。java:1488)在org.apache.hadoop.hdfs.server.namenode.namenode.main(namenode。java:1554)原因:java.net.bindexception:地址已在sun.nio.ch.net.bind0(本机方法)中使用sun.nio.ch.net.bind(net。java:463)在sun.nio.ch.net.bind(net。java:455)在sun.nio.ch.serversocketchannelimpl.bind(serversocketchannelimpl。java:223)在sun.nio.ch.serversocketadaptor.bind(serversocketadaptor。java:74)在org.apache.hadoop.ipc.server.bind(server。java:408) ... 更多信息2016-04-26 03:29:17103 info org.apache.hadoop.util.exitutil:退出状态1 2016-04-26 03:29:17,109 info org.apache.hadoop.hdfs.server.namenode.namenode:关闭\u消息:/************************************关闭\u消息:关闭hadoop主机上的namenode/127.0.0.1/ubuntu@hadoop-master:/usr/local/hadoop$

sbdsn5lh

sbdsn5lh1#

dfs需要格式化。只需发出以下命令;
hadoop namenode-格式

hdfs namenode-格式

pgx2nnw8

pgx2nnw82#

错误日志清楚地表明它无法绑定默认端口。

java.net.BindException: Problem binding to [hadoop-master:8020] java.net.BindException: Address already in use; For more details see:  http://wiki.apache.org/hadoop/BindException

您需要将默认端口更改为某个空闲端口。
这里是hdfs-default.xml中给出的端口列表,这里是。

bprjcwpo

bprjcwpo3#

检查core-site.xml中的namenode地址。更改为50070或9000,然后重试
namenode web ui的默认地址是http://localhost:50070/. 您可以在浏览器中打开此地址并检查名称节点信息。
namenode服务器的默认地址是hdfs://localhost:8020/. 您可以通过hdfsapi连接到它来访问hdfs。是真正的服务地址。
http://blog.cloudera.com/blog/2009/08/hadoop-default-ports-quick-reference/

dldeef67

dldeef674#

尝试格式化名称节点。$]hadoop namenode-格式

相关问题