如何使用fs.Hadoop文件系统对HDFS文件进行常见操作?

fzwojiic  于 2022-12-09  发布在  HDFS
关注(0)|答案(1)|浏览(169)

我需要使用python3对HDFS目录执行一些普通操作。例如,mkdirchmodchowntest(如果目录存在)。
我尝试使用pyarrow,因为它是python的官方客户端。
所以,我看了新的API文档,并没有找到任何有用的方法. legacy HDFS API的用法允许这样做,但它是不赞成的.
有人能回答,如何使用新的API进行我提到的操作吗?

6l7fqoea

6l7fqoea1#

pyarrow.HadoopFileSystem.mkdir的等效值为pyarrow.fs.HadoopFileSystem.create_dir
不存在pyarrow.HadoopFileSystem.test,但存在pyarrow.fs.HadoopFileSystem.get_file_info
没有chownchmod的等价物。新的文件系统API的动机是“更高级别的Arrow模块所需的最小操作集是什么?(例如数据集API)"。添加到新API的每个方法都必须添加到每个子实现中,而且大多数其他文件系统都有自己的python绑定。
您是否考虑过独立的hdfs软件包?

相关问题