在pyspark中查看并显示windows.partition函数的结果

n8ghc7c1  于 2021-07-09  发布在  Spark
关注(0)|答案(0)|浏览(170)

在代码段中,我看到它使用windows函数如下。

test_by_time = Window.partitionBy("testId").orderBy("Time")

我的问题是如何看待 windows.partitonby ,即。, test_by_time 在这里。我试着用 test_by_time.show() ,但错误attributeerror:“windowspec”对象没有给定属性“show”。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题