这个问题在这里已经有答案了:
为pyspark dataframes聚合重命名列(7个答案)
26天前关门了。
我有下面的pyspark代码 GroupBy
```
print(my_df.select("user","host").groupBy("user").agg({"":"count"}).alias("total").show())
print(my_df.select("user","host").groupBy("host").agg({"":"count"}).alias("total").show())
我得到以下输出
+--------+--------+
| user|count(1)|
+--------+--------+
| root| 4|
| foo| 1|
+--------+--------+
None
+---------+--------+
| host|count(1)|
+---------+--------+
|localhost| 2|
| unknown| 1|
| ::1| 1|
|127.0.0.1| 1|
+---------+--------+
我想要这个专栏 `count(1)` 像这样的 `Total` -所有的google例子并没有真正涵盖dict聚合。我有办法做到这一点吗?
当做,
1条答案
按热度按时间mnemlml81#
尝试使用
withColumnRenamed()
: