这里是windows用户。这将是一个非常简单的答案,一定有人问过,但我一定不知道术语来找到这里的问题堆栈。
我正在尝试引用linux虚拟机上hadoop fs(hadoop文件系统?)之外的任何文件。例如:
hadoop fs -put home/udacity_training/data/access_logs.txt access_logs.txt
在上面的调用中,我试图将文件从'data'文件夹复制到hadoop文件系统。但是,对于我尝试引用的每个路径,我都会得到“没有这样的文件或目录”错误。即使尝试使用“copyfromlocal”时,例如:
hadoop fs -copyFromLocal access_logs.txt access_logs.txt
它不起作用!
任何帮助都将不胜感激。
1条答案
按热度按时间p1iqtdky1#
使用以下命令
你在说
hadoop
复制access_logs.txt
从本地文件系统到access_logs.txt directory
在hdfs
. hadoop所做的是试图在hadoop user
所以你可以创建hadoop user
和你一起跑步hadoop commands
作为我猜
Finn
是username
那你就申请吧你会看到的
access_logs.txt
应复制