如何将文件从hdfs复制到本地文件系统

xwmevbvl  于 2021-06-03  发布在  Hadoop
关注(0)|答案(8)|浏览(800)

如何将文件从hdfs复制到本地文件系统。文件下没有文件的物理位置,甚至没有目录。如何将它们移到本地进行进一步验证。我通过winscp进行了尝试。

n1bvdmb6

n1bvdmb61#

bin/hadoop fs -put /localfs/destination/path /hdfs/source/path
ljsrvy3e

ljsrvy3e2#

如果使用docker,则必须执行以下步骤:
将文件从hdfs复制到namenode(hadoop fs-get output/part-r-00000/out\u text)/输出文本”将存储在namenode上。
通过(docker cp namenode:/out\u text output.txt)将文件从namenode复制到本地磁盘
output.txt将出现在当前工作目录中

ctrmrzij

ctrmrzij3#

在hadoop 2.0中,

hdfs dfs -copyToLocal <hdfs_input_file_path> <output_path>

哪里, hdfs_input_file_path 可能是从
http://<<name_node_ip>>:50070/explorer.html output_path 文件的本地路径,文件将复制到该路径。
您也可以使用 get 代替 copyToLocal .

zbdgwd5y

zbdgwd5y4#

你可以用这两种方法来完成。

1.hadoop fs -get <HDFS file path> <Local system directory path>
2.hadoop fs -copyToLocal <HDFS file path> <Local system directory path>

前任:
我的文件位于/sourcedata/mydata.txt中我想将文件复制到本地文件系统的路径为/user/ravi/mydata

hadoop fs -get /sourcedata/mydata.txt /user/ravi/mydata/
vzgqcmou

vzgqcmou5#

如果源“文件”被拆分为多个位于同一目录树中的文件(可能是map reduce的结果),则可以使用以下方法将其复制到本地文件:

hadoop fs -getmerge /hdfs/source/dir_root/ local/destination
4c8rllxm

4c8rllxm6#

bin/hadoop fs -get /hdfs/source/path /localfs/destination/path bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path 将web浏览器指向hdfs webui( namenode_machine:50070 ),浏览到要复制的文件,向下滚动页面并单击下载文件。

8wtpewkr

8wtpewkr7#

为了将文件从hdfs复制到本地文件系统,可以运行以下命令:
hadoop dfs -copyToLocal <input> :要复制的hdfs目录路径(例如/mydata) <output> :目标目录路径(例如~/documents)

p5cysglq

p5cysglq8#

这在我的ubuntu的vm示例上很管用。
hdfs dfs-copytolocal[hadoop目录][本地目录]

相关问题