如何将 Spark 数据框中的所有列更改为双精度类型

SSh*_*SSh 1 python dataframe apache-spark pyspark

我正在尝试将 Spark 数据帧的所有列更改为双精度类型,但我想知道是否有比循环列和转换更好的方法。

Ste*_*ven 5

有了这个数据框:

df = spark.createDataFrame(
  [
    (1,2),
    (2,3),
  ],
  ["foo","bar"]
)

df.show()
+---+---+
|foo|bar|
+---+---+
|  1|  2|
|  2|  3|
+---+---+
Run Code Online (Sandbox Code Playgroud)

循环for可能是最简单、更自然的解决方案。

from pyspark.sql import functions as F

for col in df.columns:
  df = df.withColumn(
    col,
    F.col(col).cast("double")
  )

df.show()
+---+---+
|foo|bar|
+---+---+
|1.0|2.0|
|2.0|3.0|
+---+---+
Run Code Online (Sandbox Code Playgroud)

当然,你也可以使用python理解:

df.select(
  *(
    F.col(col).cast("double").alias(col)
    for col
    in df.columns
  )
).show()

+---+---+
|foo|bar|
+---+---+
|1.0|2.0|
|2.0|3.0|
+---+---+
Run Code Online (Sandbox Code Playgroud)

如果您有很多列,那么第二种解决方案会更好一些。