xml—在单节点模式下设置hadoop时遇到问题

hm2xizp9  于 2021-06-04  发布在  Hadoop
关注(0)|答案(1)|浏览(328)

我在单节点模式下设置hadoop时遇到了麻烦。我按照apache网站中提到的说明操作,我知道所有守护进程都正常工作。当我运行jps时,这就是我得到的。

31227 DataNode
31536 Jps
31146 NameNode
27642 RemoteMavenServer
31432 ResourceManager
31513 NodeManager
31327 SecondaryNameNode

但当我跑的时候

hadoop dfs -ls /

ls:本地异常失败:java.io.eofexception;主机详细信息:本地主机为:“localhost/127.0.0.1”;目的主机为:“localhost”:9000;
这就是我得到的。
在我的core-site.xml中

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

在我的hdfs-site.xml中

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/tmp/datanode</value>
    </property>
</configuration>

在my mapred-site.xml中

<configuration>
     <property>
         <name>mapred.job.tracker</name>
         <value>localhost:9001</value>
     </property>
</configuration>

知道我做错了什么吗?我也在使用hadoop-2.4.1。

q9yhzks0

q9yhzks01#

检查/etc/hosts中是否存在以下条目
127.0.0.1 localhost localhost.localdomain

相关问题