尝试连接到hadoop datanode时发生超时错误

jyztefdp  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(391)

我在尝试将文件放入hdfs时遇到了这个错误。

org.apache.hadoop.net.ConnectTimeoutException: 60000 millis timeout while 
waiting for channel to be ready for connect. ch : 
java.nio.channels.SocketChannel[connection-pending remote=/10.1.1.14:50010]

我查找了解决方案,发现您需要将此属性添加到hdfs-site.xml:

<property>
  <name>dfs.client.use.datanode.hostname</name>
  <value>true</value>
</property>

我正在使用ambari来管理我的hadoop服务。在ambari上重新启动hdfs后,如何添加属性而不将其重置为默认值?我在运行hdp2.6.1.0的单节点集群上。
更新:已成功将属性添加到hdfs-site.xml

<property>
      <name>dfs.datanode.use.datanode.hostname</name>
      <value>true</value>
  </property>

  <property>
      <name>dfs.client.use.datanode.hostname</name>
      <value>true</value>
    </property>

但是,我仍然得到相同的超时错误。

csbfibhn

csbfibhn1#

在hdfs站点xml中使用这个

<property> 
   <name>dfs.namenode.name.dir</name> 
   <value>file:/path/to/hadoop/namenode</value> 
 </property> 

 <property> 
   <name>dfs.datanode.data.dir</name> 
   <value>file:/path/to/hadoop/datanode</value> 
 </property>

相关问题