pysaprk-multi-groupby-with-different列

webghufk  于 2021-05-27  发布在  Spark
关注(0)|答案(2)|浏览(366)

我有如下数据

year    name    percent     sex
1880    John    0.081541    boy
1881    William 0.080511    boy
1881    John    0.050057    boy

我需要使用不同的列进行分组和计数

df_year = df.groupby('year').count()
df_name = df.groupby('name').count()
df_sex = df.groupby('sex').count()

然后我必须创建一个窗口来获取每列的前3个数据

window = Window.partitionBy('year').orderBy(col("count").desc())
top4_res = df_year.withColumn('topn', func.row_number().over(window)).\
                                              filter(col('topn') <= 4).repartition(1)

假设我有数百列要分组、计数和topk\u3操作。
我能一次做完吗?
还是有更好的方法?

8qgya5xd

8qgya5xd1#

如果希望列的前n个值具有最大的计数,则应该这样做:

from pyspark.sql.functions import *

columns_to_check = [ 'year', 'name' ]
n = 4

for c in columns_to_check:
  # returns a dataframe
  x = df.groupBy(c).count().sort(col("count").desc()).limit(n)
  x.show()

  # returns a list of rows
  x = df.groupBy(c).count().sort(col("count").desc()).take(n)
  print(x)
g6ll5ycj

g6ll5ycj2#

我不确定这是否能满足你的要求,但如果你是一个单一的Dataframe,我想它可以给你一个开始,让我知道如果不是。您可以堆叠这3列(或更多列),然后按groupby和take count:

cols = ['year','name','sex']
e = f"""stack({len(cols)},{','.join(map(','.join,
             (zip([f'"{i}"' for i in cols],cols))))}) as (col,val)"""

(df.select(*[F.col(i).cast('string') for i in cols]).selectExpr(e)
 .groupBy(*['col','val']).agg(F.count("col").alias("Counts")).orderBy('col')).show()

+----+-------+------+
| col|    val|Counts|
+----+-------+------+
|name|   John|     2|
|name|William|     1|
| sex|    boy|     3|
|year|   1881|     2|
|year|   1880|     1|
+----+-------+------+

如果你想要一个宽的形式,你也可以旋转,但我认为长的形式会很有帮助:

(df.select(*[F.col(i).cast('string') for i in cols]).selectExpr(e)
 .groupBy('col').pivot('val').agg(F.count('val')).show())

+----+----+----+----+-------+----+
| col|1880|1881|John|William| boy|
+----+----+----+----+-------+----+
|name|null|null|   2|      1|null|
|year|   1|   2|null|   null|null|
| sex|null|null|null|   null|   3|
+----+----+----+----+-------+----+

相关问题