hadoop—将目录从远程hdfs本地文件系统复制到本地计算机

nx7onnlm  于 2021-06-01  发布在  Hadoop
关注(0)|答案(1)|浏览(650)

我在本地hdfs环境中有一个目录,我想把它复制到本地计算机上。我正在使用ssh(带有密码)访问hdfs。
我尝试了许多建议的复制命令,但没有工作。
我尝试的是:

scp ‘username@hn0-sc-had:Downloads/*’ ~/Downloads

如本链接所述。我做错什么了?

vd2z7a6w

vd2z7a6w1#

scp将从远程linux服务器复制。
hdfs不存在于单个服务器上,或者是一个“本地文件系统”,因此scp不是直接从中复制的合适工具
你的选择包括
ssh到远程服务器
使用 hdfs dfs -copyToLocal 为了从hdfs中提取文件
使用计算机上的scp获取刚下载到远程服务器上的文件
或者
使用来自远程服务器的xml文件配置本地hadoop cli
使用 hdfs dfs -copytoLocal 从你自己的电脑上直接对抗hdfs
或者
安装hdfs nfs网关
在本地计算机上装载nfs卷,并从中复制文件

相关问题