我想在hadoop fs中复制一个本地文件。我运行以下命令:
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode
以及
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode
即使我跑了: hdfs dfs -ls
我得到这个错误:
> WARN util.NativeCodeLoader: Unable to load native-hadoop library for
> your platform... using builtin-java classes where applicable
> copyFromLocal: `.': No such file or directory
我不知道为什么我会犯这个错误?有什么想法吗?
1条答案
按热度按时间whitzsjs1#
根据您的输入,您的hadoop安装似乎运行良好。有什么问题吗
hadoop fs -copyFromLocal
期望hdfs目录作为目标目录,而不是hadoop存储其块的本地目录。因此,在您的情况下,命令应该如下所示(例如):
在哪里
sampleDir
是您创建的目录hadoop fs -mkdir
命令。