Eva*_*mir 4 aggregate-functions apache-spark apache-spark-sql pyspark
假设我有以下内容DataFrame:
[Row(user='bob', values=[0.5, 0.3, 0.2]),
Row(user='bob', values=[0.1, 0.3, 0.6]),
Row(user='bob', values=[0.8, 0.1, 0.1])]
Run Code Online (Sandbox Code Playgroud)
我想groupBy user并做一些事情,比如avg(values)平均值取决于数组的每个索引,values如下所示:
[Row(user='bob', avgerages=[0.466667, 0.233333, 0.3])]
Run Code Online (Sandbox Code Playgroud)
我怎么能在PySpark中做到这一点?
您可以扩展每个索引的数组和计算平均值.
蟒蛇
from pyspark.sql.functions import array, avg, col
n = len(df.select("values").first()[0])
df.groupBy("user").agg(
array(*[avg(col("values")[i]) for i in range(n)]).alias("averages")
)
Run Code Online (Sandbox Code Playgroud)
斯卡拉
import spark.implicits._
import org.apache.spark.functions.{avg, size}
val df = Seq(
("bob", Seq(0.5, 0.3, 0.2)),
("bob", Seq(0.1, 0.3, 0.6))
).toDF("user", "values")
val n = df.select(size($"values")).as[Int].first
val values = (0 to n).map(i => $"values"(i))
df.select($"user" +: values: _*).groupBy($"user").avg()
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
4569 次 |
| 最近记录: |