我正试图用这个教程在ubuntu上安装hadoop
我已经更改了所有的conf文件,并尝试了互联网上所有可用的解决方案。我跑的时候没有出错 start-all.sh
但是当我使用jps检查进程时,我得到this:->
3132 Jps
2742 SecondaryNameNode
2830 JobTracker
当我使用 stop-all.sh
,我get:->
stopping jobtracker
localhost: no tasktracker to stop
no namenode to stop
localhost: no datanode to stop
localhost: stopping secondarynamenode
这是我的求职日志,请帮助我:
Problem connecting to HDFS Namenode... re-trying
java.net.ConnectException: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused
at org.apache.hadoop.ipc.Client.wrapException(Client.java:1142)
at org.apache.hadoop.ipc.Client.call(Client.java:1118)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229)
at com.sun.proxy.$Proxy7.getProtocolVersion(Unknown Source)
at sun.reflect.GeneratedMethodAccessor2.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85)
4条答案
按热度按时间ss2ws0br1#
检查core-site.xml文件以查看是否已更新hdfstmp文件夹的路径。如果您已从internet复制并粘贴配置,但未能配置路径,则会出现此错误。尝试以下操作:
这里hdfstmp是默认文件系统的文件夹名称。
在core-site.xml文件中正确设置临时目录后,我建议
再次检查所有配置文件
跑
bin/stop-all.sh
跑hadoop/bin namenode -format
跑bin/start-all.sh
qvk1mo1f2#
您必须是包含namenode和datanode的目录的所有者。
anauzrmj3#
请检查为fs.defaultfs属性配置的端口。在我的情况下,我已经给了已经在使用的端口。因此namenode没有启动。更改端口后,我可以启动名称节点
x8diyxa74#
1) 使用“kill-9 processid”
2) 全部启动.sh
3) stop-al.sh验证停止节点是否按预期工作。