请为Pandas建议pyspark数据帧替代方案df['col'].unique().
df['col'].unique()
我想列出pyspark数据帧列中的所有唯一值.
不是SQL类型的方式(registertemplate然后SQL查询不同的值).
我也不需要groupby->countDistinct,而是想检查该列中的不同VALUES.
groupby->countDistinct
pyspark pyspark-sql
问题几乎在标题中:是否有一种有效的方法来计算DataFrame中每列中的不同值?
该描述方法只提供了计数,但不重复计数,我不知道是否有AA的方式来获得所有的重复计数(或选择)列.
distinct-values apache-spark apache-spark-sql
apache-spark ×1
apache-spark-sql ×1
distinct-values ×1
pyspark ×1
pyspark-sql ×1