截断分区表hdfs中的数据

ikfrs5lh  于 2021-05-31  发布在  Hadoop
关注(0)|答案(0)|浏览(238)

我已经创建了一个分区表,并使用下面的代码将tblproperty设置为5分钟后删除数据-

spark.sql("ALTER TABLE arpit_part SET TBLPROPERTIES ('partition.retention.period'='5m')")

但即使过了很长时间,我仍然能看到分区表中以前存在的所有25条记录。
有人能帮我理解我犯了什么错误吗。仅供参考-我是hdfs的新手。我参考了下面的文章。https://docs.cloudera.com/hdpdocuments/hdp3/hdp-3.1.4/using-hiveql/content/hive-set-partition-retention.html

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题