我提交了一个大小为1 gb的文件,我想将此文件拆分为大小为100mb的文件。如何从命令行执行该操作。我在找一个命令,比如:
hadoop fs -split --bytes=100m /user/foo/one_gb_file.csv /user/foo/100_mb_file_1-11.csv
在hdfs中有没有办法做到这一点?
3zwtqj6y1#
在hdfs中,我们不能期望unix中所有可用的特性。当前版本的hadoop fs实用程序不提供此功能。也许是我们可以期待的未来。您可以提出一个bug(apachejira中的改进),将此特性包含在hdfs中。现在,您必须用java编写自己的实现。
1条答案
按热度按时间3zwtqj6y1#
在hdfs中,我们不能期望unix中所有可用的特性。当前版本的hadoop fs实用程序不提供此功能。也许是我们可以期待的未来。您可以提出一个bug(apachejira中的改进),将此特性包含在hdfs中。
现在,您必须用java编写自己的实现。