复制文件时发生hdfs错误:只能复制到0个节点,而不是1个节点

zynd9foi  于 2021-06-03  发布在  Hadoop
关注(0)|答案(3)|浏览(585)

在将文件从本地系统复制到hdfs时,我得到以下错误,我使用的是单节点
13/08/04 10:50:02警告hdfs.dfsclient:数据流异常:java.io.ioexception:文件/user/vishu/input只能复制到0个节点,而不是1个节点
我删除了dfs/name和dfs/data目录,格式化了namenode,但仍然没有用。我有足够的空间来复制数据。
有人能帮忙解决这个问题吗?
你好,维什瓦

suzh9iv8

suzh9iv81#

检查是否所有守护进程都已启动。确保输入文件正确。
使用以下命令将文件从本地复制到hdfs:

bin/hadoop fs -mkdir abc

bin/hadoop fs -copyFromLocal inputfile abc
xpszyzbs

xpszyzbs2#

有时数据节点可能启动缓慢,这可能会导致上述问题。。在dfs和mapred demons启动后保持一定的等待时间。
bin/hadoop namenode-格式
bin/start-dfs.sh文件
等待大约5分钟(数据节点将在
bin/start-mapred.sh文件

jtw3ybtb

jtw3ybtb3#

如果编写文件的客户机在集群之外,请确保该客户机可以访问datanode。
看看这个http://www.hadoopinrealworld.com/could-only-be-replicated-to-0-nodes/

相关问题