我有一组驻留在本地机器(机器a)中的文件,我想将这些文件加载到远程机器的hdfs(机器b)中。两台机器的ip地址都不同。hadoop只安装在机器b上。如何为此编写批处理脚本。因此,在本地计算机中运行批处理脚本将本地计算机中的文件加载到远程hdfs计算机。
zqdjd7g91#
你也应该在本地机器上安装hadoop。但是你不需要本地机器成为hadoop集群的一部分。你只需要将本地机器作为b的客户端,然后就可以运行cmd hadoop fs -put SOME_LOCAL_FILE /HDFS_TARGET_PATH 将文件放在本地计算机上的hadoop集群b
hadoop fs -put SOME_LOCAL_FILE /HDFS_TARGET_PATH
1条答案
按热度按时间zqdjd7g91#
你也应该在本地机器上安装hadoop。但是你不需要本地机器成为hadoop集群的一部分。你只需要将本地机器作为b的客户端,然后就可以运行cmd
hadoop fs -put SOME_LOCAL_FILE /HDFS_TARGET_PATH
将文件放在本地计算机上的hadoop集群b