我试图用一个名称节点和四个数据节点配置hadoop。我能够在一台机器上成功地配置name节点和job tracker并将其启动。
但在要配置数据节点的计算机上,我执行了以下操作:
我拉开了拉链 hadoop-2.0.0-cdh4.1.2.tar.gz
以及 mr1-2.0.0-mr1-cdh4.1.2.tar.gz
进入一个文件夹,并设置配置与主和从。
在 master
我已经设置了配置为名称节点的机器的ip地址。
在从机中,我设置了我解压tar球的机器的ip地址。
当我尝试用命令启动数据节点时
hdfs datanode
我得到这个错误:
java.io.IOException: Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
我需要做什么?
3条答案
按热度按时间s71maibg1#
这些步骤为我解决了问题:
export hadoop\u conf\u dir=“$hadoop\u home/etc/hadoop”
echo$hadoop\配置\目录
hdfs namenode-格式
hdfs getconf-名称节点
开始-dfs.sh
然后,hadoop就可以正常启动了。
noj0wjuj2#
文件的名称
masters
文件有误导性。它应该包含secondarynamenode的地址,并由namenode本身读取。数据节点与masters
文件。您需要配置fs.default.name
在core-site.xml
配置文件。您看到的错误也会产生误导,并将您指向错误的配置参数。
4zcjmb1e3#
在hdfs-site.xml中为name节点添加rpc地址的工作方式如下
同时在核心站点添加属性
<property> <name>fs.defaultFS</name> <value>dnsname:port</value> </property>