小编Joh*_*Lin的帖子

查看Spark Dataframe列的内容

我正在使用Spark 1.3.1.

我试图在Python中查看Spark数据帧列的值.使用Spark数据帧,我可以df.collect()查看数据帧的内容,但是我没有看到Spark数据帧列的最佳方法.

例如,数据框df包含一个名为的列'zip_code'.所以我可以做df['zip_code'],它变成了一个pyspark.sql.dataframe.Column类型,但我找不到一种方法来查看值df['zip_code'].

python dataframe apache-spark pyspark

28
推荐指数
3
解决办法
5万
查看次数

标签 统计

apache-spark ×1

dataframe ×1

pyspark ×1

python ×1