我在单节点模式下设置hadoop时遇到了麻烦。我按照apache网站中提到的说明操作,我知道所有守护进程都正常工作。当我运行jps时,这就是我得到的。
31227 DataNode
31536 Jps
31146 NameNode
27642 RemoteMavenServer
31432 ResourceManager
31513 NodeManager
31327 SecondaryNameNode
但当我跑的时候
hadoop dfs -ls /
ls:本地异常失败:java.io.eofexception;主机详细信息:本地主机为:“localhost/127.0.0.1”;目的主机为:“localhost”:9000;
这就是我得到的。
在我的core-site.xml中
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
在我的hdfs-site.xml中
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/tmp/datanode</value>
</property>
</configuration>
在my mapred-site.xml中
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
知道我做错了什么吗?我也在使用hadoop-2.4.1。
1条答案
按热度按时间q9yhzks01#
检查/etc/hosts中是否存在以下条目
127.0.0.1 localhost localhost.localdomain