hadoop datanodes在独立设置中找不到namenode

afdcj2ne  于 2021-06-04  发布在  Hadoop
关注(0)|答案(2)|浏览(345)

任何日志中都没有错误,但我相信我的datanode找不到我的namenode。
这就是导致我得出这个结论的错误(根据我在网上的发现):

[INFO ]: org.apache.hadoop.ipc.Client - Retrying connect to server: /hadoop.server:9000. Already tried 4 time(s).

jps输出:

7554 Jps
7157 NameNode
7419 SecondaryNameNode
7251 DataNode

有人能给点建议吗?
dfsadmin的结果

Configured Capacity: 13613391872 (12.68 GB)
Present Capacity: 9255071744 (8.62 GB)
DFS Remaining: 9254957056 (8.62 GB)
DFS Used: 114688 (112 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0

-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)

Live datanodes:
Name: 192.172.1.49:50010 (Hadoop)
Hostname: Hadoop
Decommission Status : Normal
Configured Capacity: 13613391872 (12.68 GB)
DFS Used: 114688 (112 KB)
Non DFS Used: 4358320128 (4.06 GB)
DFS Remaining: 9254957056 (8.62 GB)
DFS Used%: 0.00%
DFS Remaining%: 67.98%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Last contact: Fri Aug 08 17:25:57 SAST 2014
km0tfn4u

km0tfn4u1#

为您的机器提供一个主机名,并在/etc/hosts文件中输入它们,如下所示,


# hostname hdserver.example.com

# vim /etc/hosts

192.168.0.25 hdserver.example.com
192.168.0.30 hdclient.example.com

并保存。(使用正确的ip地址)
在客户端上,还提供主机名hdclient.example.com,并在/etc/hosts中输入上述条目。这将帮助名称服务器定位具有主机名的计算机。

fnx2tebb

fnx2tebb2#

删除tmp文件夹中的所有内容:rm-rf path/of/tmp/目录
format namenode::bin/hadoop namenode-格式
再次启动所有进程:bin/start-all.sh

相关问题