ApachePig—将文件复制到hadoop时没有这样的文件或目录

bxjv4tth  于 2021-06-02  发布在  Hadoop
关注(0)|答案(2)|浏览(383)

当我使用hadoop时,我是hadoop的初学者

Hadoop fs -ls /

以及

Hadoop fs - mkdir /pathname

一切都好,但我想用我的csv文件在hadoop,我的文件是在c驱动器,我用 -put 以及 wget 以及 copyfromlocal 命令如下:

Hadoop fs -put c:/ path / myhadoopdir
Hadoop fs copyFromLoacl c:/...
Wget ftp://c:/...

但是在上面的两个错误中没有这样的文件或目录/myfilepathinc:并且对于第三个无法解析主机地址“c”,谢谢您的帮助

e0uiprwp

e0uiprwp1#

萨曼布的回答是准确的。更清楚地说。
假设您的文件是“c:\testfile.txt”,请使用下面的命令。还要确保您对hdfs中的目录有写权限。

hadoop fs -copyFromLocal c:\testfile.txt /HDFSdir/testfile.txt
wrrgggsh

wrrgggsh2#

看看你的命令,似乎有两个原因导致这个问题。

Hadoop fs -put c:/ path / myhadoopdir
 Hadoop fs copyFromLoacl c:/...

正确使用hadoop fs-copyfromlocal。
检查您的本地文件权限。你必须给那个文件完全的访问权。
必须在本地和hdfs中提供绝对路径位置。
希望对你有用。

相关问题