hadoop将本地文件复制到hadoop sf时出错

8ulbf1ek  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(430)

我想在hadoop fs中复制一个本地文件。我运行以下命令:

sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$  hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode

以及

sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$  hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode

即使我跑了: hdfs dfs -ls 我得到这个错误:

> WARN util.NativeCodeLoader: Unable to load native-hadoop library for
> your platform... using builtin-java classes where applicable
> copyFromLocal: `.': No such file or directory

我不知道为什么我会犯这个错误?有什么想法吗?

whitzsjs

whitzsjs1#

根据您的输入,您的hadoop安装似乎运行良好。有什么问题吗 hadoop fs -copyFromLocal 期望hdfs目录作为目标目录,而不是hadoop存储其块的本地目录。
因此,在您的情况下,命令应该如下所示(例如):

sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$  hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /sampleDir/

在哪里 sampleDir 是您创建的目录 hadoop fs -mkdir 命令。

相关问题