hadoop pig无法存储到现有文件夹

niwlg2el  于 2021-06-04  发布在  Hadoop
关注(0)|答案(1)|浏览(332)

我创建了一个文件夹,使用store命令从pig进程中删除结果文件。它第一次工作,但第二次它认为文件夹已经存在。这种情况的最佳做法是什么?关于这个主题的文献很少。
我下一步将把文件夹重命名为原来的文件名,以减少这种影响。有什么想法吗?

wb1gzix0

wb1gzix01#

您可以在pig中执行fs命令,并且应该能够在运行store命令之前通过发出fs-rmr命令来删除目录:

fs -rmr dir
STORE A into 'dir' using PigStorage();

唯一微妙的是fs命令不要求在目录名周围加引号,而store命令要求在目录名周围加引号。

相关问题