Pyspark 数据框 OrderBy 列列表

Jac*_*ack 9 sql-order-by python-3.x apache-spark apache-spark-sql pyspark

在写入 csv 之前,我试图在 pyspark 数据框中使用 OrderBy 函数,但如果我有一个列列表,我不确定是否使用 OrderBy 函数。

代码:

Cols = ['col1','col2','col3']
df = df.OrderBy(cols,ascending=False)
Run Code Online (Sandbox Code Playgroud)

小智 19

根据文档字符串/签名:

Signature: df.orderBy(*cols, **kwargs)
Docstring:
Returns a new :class:`DataFrame` sorted by the specified column(s).
:param cols: list of :class:`Column` or column names to sort by.
:param ascending: boolean or list of boolean (default True).
Run Code Online (Sandbox Code Playgroud)

两个都

df = spark.createDataFrame([(1, 2, 3)] )
cols = ["_1", "_2", "_3"]

df.orderBy(cols, ascending=False)
Run Code Online (Sandbox Code Playgroud)

df.orderBy(*cols, ascending=False)
Run Code Online (Sandbox Code Playgroud)

是有效的,以及与 的等价物list[pyspark.sql.Column]