在将文件从本地系统复制到hdfs时,我得到以下错误,我使用的是单节点13/08/04 10:50:02警告hdfs.dfsclient:数据流异常:java.io.ioexception:文件/user/vishu/input只能复制到0个节点,而不是1个节点我删除了dfs/name和dfs/data目录,格式化了namenode,但仍然没有用。我有足够的空间来复制数据。有人能帮忙解决这个问题吗?你好,维什瓦
suzh9iv81#
检查是否所有守护进程都已启动。确保输入文件正确。使用以下命令将文件从本地复制到hdfs:
bin/hadoop fs -mkdir abc bin/hadoop fs -copyFromLocal inputfile abc
xpszyzbs2#
有时数据节点可能启动缓慢,这可能会导致上述问题。。在dfs和mapred demons启动后保持一定的等待时间。bin/hadoop namenode-格式bin/start-dfs.sh文件等待大约5分钟(数据节点将在bin/start-mapred.sh文件
jtw3ybtb3#
如果编写文件的客户机在集群之外,请确保该客户机可以访问datanode。看看这个http://www.hadoopinrealworld.com/could-only-be-replicated-to-0-nodes/
3条答案
按热度按时间suzh9iv81#
检查是否所有守护进程都已启动。确保输入文件正确。
使用以下命令将文件从本地复制到hdfs:
xpszyzbs2#
有时数据节点可能启动缓慢,这可能会导致上述问题。。在dfs和mapred demons启动后保持一定的等待时间。
bin/hadoop namenode-格式
bin/start-dfs.sh文件
等待大约5分钟(数据节点将在
bin/start-mapred.sh文件
jtw3ybtb3#
如果编写文件的客户机在集群之外,请确保该客户机可以访问datanode。
看看这个http://www.hadoopinrealworld.com/could-only-be-replicated-to-0-nodes/