有没有办法限制文件的数量 cp 在hadoop中?例如,在我的目标目录中 /data/d_20151111-2350/ 包含8个文件。这些文件中有随机数,所以我不能使用regex来选择一对。我在想是不是有什么东西 hadoop fs -cp /data/d_20151111-2350/* /dest/location/ LIMIT 2 哪里 LIMIT 2 表示2个文件。
cp
/data/d_20151111-2350/
hadoop fs -cp /data/d_20151111-2350/* /dest/location/ LIMIT 2
LIMIT 2
lp0sw83n1#
不,没有这样的参数另请参见:
https://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-common/FileSystemShell.html#cp
解决这个问题的最佳方法是编写python或shell脚本-
1条答案
按热度按时间lp0sw83n1#
不,没有这样的参数
另请参见:
解决这个问题的最佳方法是编写python或shell脚本-