使用单个hadoop客户端将文件上载到多个hdf

inb24sb2  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(382)

基本上我可以通过键入以下命令上传文件:
hadoop fs-put文件名/path/to/dir
将写入当前配置的群集。
如果我使用同一个客户端将一个文件上载到另一个集群,是否可能?命令如下:
hadoop fs-put文件名hdfs://cluster2_namenode_ip/path/to/dir
或者其他选择?
谢谢!

xkftehaa

xkftehaa1#

是的,很管用。您必须确保您的hadoop客户机与另一个集群上的hadoop版本相同。您还应该与其他集群的工作节点保持连接。
有一些特殊情况。如果您的集群配置了namenodeha或kerberos,那么您就不能仅仅使用该命令;需要一些额外的配置。

相关问题