我正在使用Spark 1.3.1.
我试图在Python中查看Spark数据帧列的值.使用Spark数据帧,我可以df.collect()查看数据帧的内容,但是我没有看到Spark数据帧列的最佳方法.
df.collect()
例如,数据框df包含一个名为的列'zip_code'.所以我可以做df['zip_code'],它变成了一个pyspark.sql.dataframe.Column类型,但我找不到一种方法来查看值df['zip_code'].
df
'zip_code'
df['zip_code']
pyspark.sql.dataframe.Column
python dataframe apache-spark pyspark
apache-spark ×1
dataframe ×1
pyspark ×1
python ×1