jKr*_*aut 19 python window-functions apache-spark apache-spark-sql pyspark
我已经row_number()
partitionBy
使用Window在Spark中成功创建了一个by,但是希望通过降序对其进行排序,而不是默认的升序.这是我的工作代码:
from pyspark import HiveContext
from pyspark.sql.types import *
from pyspark.sql import Row, functions as F
from pyspark.sql.window import Window
data_cooccur.select("driver", "also_item", "unit_count",
F.rowNumber().over(Window.partitionBy("driver").orderBy("unit_count")).alias("rowNum")).show()
Run Code Online (Sandbox Code Playgroud)
这给了我这个结果:
+------+---------+----------+------+
|driver|also_item|unit_count|rowNum|
+------+---------+----------+------+
| s10| s11| 1| 1|
| s10| s13| 1| 2|
| s10| s17| 1| 3|
Run Code Online (Sandbox Code Playgroud)
在这里我添加desc()以降序:
data_cooccur.select("driver", "also_item", "unit_count", F.rowNumber().over(Window.partitionBy("driver").orderBy("unit_count").desc()).alias("rowNum")).show()
Run Code Online (Sandbox Code Playgroud)
并得到此错误:
AttributeError:'WindowSpec'对象没有属性'desc'
我在这做错了什么?
zer*_*323 40
desc
应该应用于列而不是窗口定义.您可以在列上使用任一方法:
from pyspark.sql.functions import col
F.rowNumber().over(Window.partitionBy("driver").orderBy(col("unit_count").desc())
Run Code Online (Sandbox Code Playgroud)
或独立功能:
from pyspark.sql.functions import desc
F.rowNumber().over(Window.partitionBy("driver").orderBy(desc("unit_count"))
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
32130 次 |
最近记录: |