有没有办法将聚合函数应用于数据帧的所有(或列表)列groupBy?换句话说,有没有办法避免为每一列执行此操作:
groupBy
df.groupBy("col1") .agg(sum("col2").alias("col2"), sum("col3").alias("col3"), ...)
aggregate-functions dataframe apache-spark apache-spark-sql
aggregate-functions ×1
apache-spark ×1
apache-spark-sql ×1
dataframe ×1