SSh*_*SSh 1 python dataframe apache-spark pyspark
我正在尝试将 Spark 数据帧的所有列更改为双精度类型,但我想知道是否有比循环列和转换更好的方法。
有了这个数据框:
df = spark.createDataFrame(
[
(1,2),
(2,3),
],
["foo","bar"]
)
df.show()
+---+---+
|foo|bar|
+---+---+
| 1| 2|
| 2| 3|
+---+---+
Run Code Online (Sandbox Code Playgroud)
循环for
可能是最简单、更自然的解决方案。
from pyspark.sql import functions as F
for col in df.columns:
df = df.withColumn(
col,
F.col(col).cast("double")
)
df.show()
+---+---+
|foo|bar|
+---+---+
|1.0|2.0|
|2.0|3.0|
+---+---+
Run Code Online (Sandbox Code Playgroud)
当然,你也可以使用python理解:
df.select(
*(
F.col(col).cast("double").alias(col)
for col
in df.columns
)
).show()
+---+---+
|foo|bar|
+---+---+
|1.0|2.0|
|2.0|3.0|
+---+---+
Run Code Online (Sandbox Code Playgroud)
如果您有很多列,那么第二种解决方案会更好一些。
归档时间: |
|
查看次数: |
8850 次 |
最近记录: |