如何将文件从hdfs复制到本地文件系统。文件下没有文件的物理位置,甚至没有目录。如何将它们移到本地进行进一步验证。我通过winscp进行了尝试。
n1bvdmb61#
bin/hadoop fs -put /localfs/destination/path /hdfs/source/path
ljsrvy3e2#
如果使用docker,则必须执行以下步骤:将文件从hdfs复制到namenode(hadoop fs-get output/part-r-00000/out\u text)/输出文本”将存储在namenode上。通过(docker cp namenode:/out\u text output.txt)将文件从namenode复制到本地磁盘output.txt将出现在当前工作目录中
ctrmrzij3#
在hadoop 2.0中,
hdfs dfs -copyToLocal <hdfs_input_file_path> <output_path>
哪里, hdfs_input_file_path 可能是从http://<<name_node_ip>>:50070/explorer.html output_path 文件的本地路径,文件将复制到该路径。您也可以使用 get 代替 copyToLocal .
hdfs_input_file_path
output_path
get
copyToLocal
zbdgwd5y4#
你可以用这两种方法来完成。
1.hadoop fs -get <HDFS file path> <Local system directory path> 2.hadoop fs -copyToLocal <HDFS file path> <Local system directory path>
前任:我的文件位于/sourcedata/mydata.txt中我想将文件复制到本地文件系统的路径为/user/ravi/mydata
hadoop fs -get /sourcedata/mydata.txt /user/ravi/mydata/
vzgqcmou5#
如果源“文件”被拆分为多个位于同一目录树中的文件(可能是map reduce的结果),则可以使用以下方法将其复制到本地文件:
hadoop fs -getmerge /hdfs/source/dir_root/ local/destination
4c8rllxm6#
bin/hadoop fs -get /hdfs/source/path /localfs/destination/path bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path 将web浏览器指向hdfs webui( namenode_machine:50070 ),浏览到要复制的文件,向下滚动页面并单击下载文件。
bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path
namenode_machine:50070
8wtpewkr7#
为了将文件从hdfs复制到本地文件系统,可以运行以下命令:hadoop dfs -copyToLocal <input> :要复制的hdfs目录路径(例如/mydata) <output> :目标目录路径(例如~/documents)
<input>
<output>
p5cysglq8#
这在我的ubuntu的vm示例上很管用。hdfs dfs-copytolocal[hadoop目录][本地目录]
8条答案
按热度按时间n1bvdmb61#
ljsrvy3e2#
如果使用docker,则必须执行以下步骤:
将文件从hdfs复制到namenode(hadoop fs-get output/part-r-00000/out\u text)/输出文本”将存储在namenode上。
通过(docker cp namenode:/out\u text output.txt)将文件从namenode复制到本地磁盘
output.txt将出现在当前工作目录中
ctrmrzij3#
在hadoop 2.0中,
哪里,
hdfs_input_file_path
可能是从http://<<name_node_ip>>:50070/explorer.html
output_path
文件的本地路径,文件将复制到该路径。您也可以使用
get
代替copyToLocal
.zbdgwd5y4#
你可以用这两种方法来完成。
前任:
我的文件位于/sourcedata/mydata.txt中我想将文件复制到本地文件系统的路径为/user/ravi/mydata
vzgqcmou5#
如果源“文件”被拆分为多个位于同一目录树中的文件(可能是map reduce的结果),则可以使用以下方法将其复制到本地文件:
4c8rllxm6#
bin/hadoop fs -get /hdfs/source/path /localfs/destination/path
bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path
将web浏览器指向hdfs webui(namenode_machine:50070
),浏览到要复制的文件,向下滚动页面并单击下载文件。8wtpewkr7#
为了将文件从hdfs复制到本地文件系统,可以运行以下命令:
hadoop dfs -copyToLocal
<input>
:要复制的hdfs目录路径(例如/mydata)<output>
:目标目录路径(例如~/documents)p5cysglq8#
这在我的ubuntu的vm示例上很管用。
hdfs dfs-copytolocal[hadoop目录][本地目录]