我想把一个本地文件推送到一个远程hadoop机器上。在python中有这样做的方法吗?谢谢。
mgdq6dx11#
使用hdfscli python模块。一个简单的例子,对于安全性关闭的hdfs环境,如下所示
from hdfs import InsecureClient hdfsclient = InsecureClient('http://nn_host:port', user='superuser') hdfsclient.upload(hdfspath, localpath)
使用 TokenClient 或者 KerberosClient 基于安全实现。注:需要 WebHDFS (默认启用)
TokenClient
KerberosClient
WebHDFS
i7uq4tfw2#
import subprocess hdfs_cmd = "hadoop fs -put local_file_path hdfs_file_path" subprocess.call(hdfs_cmd, shell=True)
2条答案
按热度按时间mgdq6dx11#
使用hdfscli python模块。
一个简单的例子,对于安全性关闭的hdfs环境,如下所示
使用
TokenClient
或者KerberosClient
基于安全实现。注:需要
WebHDFS
(默认启用)i7uq4tfw2#