TSA*_*SAR 8 count dataframe pyspark pandas-groupby
我有以下python / pandas命令:
df.groupby('Column_Name').agg(lambda x: x.value_counts().max()
Run Code Online (Sandbox Code Playgroud)
我在哪里获取DataFrameGroupBy对象中所有列的值计数。
如何在PySpark中执行此操作?
s51*_*510 16
当你想控制顺序时试试这个:
data.groupBy('col_name').count().orderBy('count', ascending=False).show()
Run Code Online (Sandbox Code Playgroud)
大致相同:
spark_df.groupBy('column_name').count().orderBy('count')
Run Code Online (Sandbox Code Playgroud)
在groupBy中,您可以有多个列,以 ,
例如 groupBy('column_1', 'column_2')
| 归档时间: |
|
| 查看次数: |
3900 次 |
| 最近记录: |