mar*_*tin 8 python dataframe apache-spark pyspark
我在PySpark中有这样的DataFrame(这是take(3)的结果,数据帧非常大):
sc = SparkContext()
df = [Row(owner=u'u1', a_d=0.1), Row(owner=u'u2', a_d=0.0), Row(owner=u'u1', a_d=0.3)]
Run Code Online (Sandbox Code Playgroud)
同一所有者将拥有更多行.我需要做的是在分组之后将每个所有者的字段a_d的值相加为
b = df.groupBy('owner').agg(sum('a_d').alias('a_d_sum'))
Run Code Online (Sandbox Code Playgroud)
但这会引发错误
TypeError:+:'int'和'str'的不支持的操作数类型
但是,架构包含双精度值,而不是字符串(这来自printSchema()):
root
|-- owner: string (nullable = true)
|-- a_d: double (nullable = true)
Run Code Online (Sandbox Code Playgroud)
那么这里发生了什么?
eli*_*sah 28
您没有使用正确的求和函数,而是使用built-in
函数sum
(默认情况下).
所以build-in
函数不起作用的原因是它需要一个iterable作为参数,其中传递的列的名称是一个字符串,并且该built-in
函数不能应用于字符串.参考.Python官方文档.
您需要从pyspark.sql.functions
以下位置导入正确的函数:
from pyspark.sql import Row
from pyspark.sql.functions import sum as _sum
df = sqlContext.createDataFrame(
[Row(owner=u'u1', a_d=0.1), Row(owner=u'u2', a_d=0.0), Row(owner=u'u1', a_d=0.3)]
)
df2 = df.groupBy('owner').agg(_sum('a_d').alias('a_d_sum'))
df2.show()
# +-----+-------+
# |owner|a_d_sum|
# +-----+-------+
# | u1| 0.4|
# | u2| 0.0|
# +-----+-------+
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
12016 次 |
最近记录: |