我正在使用以下命令将一些数据从hdfs复制到s3:
$ hadoop distcp -m 1 /user/hive/data/test/test_folder=2015_09_19_03_30 s3a://data/Test/buc/2015_09_19_03_30
``` `2015_09_19_03_30` s3中不存在bucket。它成功地复制了 `/user/hive/data/test/test_folder=2015_09_19_03_30` 目录到s3 `2015_09_19_03_30` 但是当我再次执行相同的命令时,它会在s3中创建另一个bucket。
我希望两个文件应该在同一个桶。
1条答案
按热度按时间p8h8hvxi1#
这是您尝试的正确案例,因为它将新文件放入同一个存储桶中