pyspark-重命名聚合列名

aoyhnmkz  于 2021-07-09  发布在  Spark
关注(0)|答案(1)|浏览(401)

这个问题在这里已经有答案了

为pyspark dataframes聚合重命名列(7个答案)
26天前关门了。
我有下面的pyspark代码 GroupBy ```
print(my_df.select("user","host").groupBy("user").agg({"":"count"}).alias("total").show())
print(my_df.select("user","host").groupBy("host").agg({"
":"count"}).alias("total").show())

我得到以下输出

+--------+--------+
| user|count(1)|
+--------+--------+
| root| 4|
| foo| 1|
+--------+--------+

None
+---------+--------+
| host|count(1)|
+---------+--------+
|localhost| 2|
| unknown| 1|
| ::1| 1|
|127.0.0.1| 1|
+---------+--------+

我想要这个专栏 `count(1)` 像这样的 `Total` -所有的google例子并没有真正涵盖dict聚合。我有办法做到这一点吗?
当做,
mnemlml8

mnemlml81#

尝试使用 withColumnRenamed() :

my_df.select("user","host").groupBy("user").agg({"*":"count"})\
        .withColumnRenamed("count(1)", "Total").show()

相关问题