PySpark:添加一个新列,其中包含从列创建的元组

Yue*_*Lyu 4 python apache-spark apache-spark-sql pyspark spark-dataframe

这里我创建了一个dateframe,如下所示,

df = spark.createDataFrame([('a',5,'R','X'),('b',7,'G','S'),('c',8,'G','S')], 
                       ["Id","V1","V2","V3"])
Run Code Online (Sandbox Code Playgroud)

看起来像

+---+---+---+---+
| Id| V1| V2| V3|
+---+---+---+---+
|  a|  5|  R|  X|
|  b|  7|  G|  S|
|  c|  8|  G|  S|
+---+---+---+---+
Run Code Online (Sandbox Code Playgroud)

我想添加一个由V1,V2,V3组成的元组列.

结果应该是这样的

+---+---+---+---+-------+
| Id| V1| V2| V3|V_tuple|
+---+---+---+---+-------+
|  a|  5|  R|  X|(5,R,X)|
|  b|  7|  G|  S|(7,G,S)|
|  c|  8|  G|  S|(8,G,S)|
+---+---+---+---+-------+
Run Code Online (Sandbox Code Playgroud)

我曾尝试使用与Python类似的syntex,但它不起作用:

df.withColumn("V_tuple",list(zip(df.V1,df.V2,df.V3)))
Run Code Online (Sandbox Code Playgroud)

TypeError:zip参数#1必须支持迭代.

任何帮助,将不胜感激!

Har*_*edi 11

我是来自scala,但我相信在python中有类似的方式:

使用sql.functions包mehtod:

如果你想获得StructType这个三列的struct(cols: Column*): Column方法,请使用如下方法:

from pyspark.sql.functions import struct
df.withColumn("V_tuple",struct(df.V1,df.V2,df.V3))
Run Code Online (Sandbox Code Playgroud)

但如果你想把它作为一个字符串,你可以使用这样的concat(exprs: Column*): Column方法:

from pyspark.sql.functions import concat
df.withColumn("V_tuple",concat(df.V1,df.V2,df.V3))
Run Code Online (Sandbox Code Playgroud)

使用第二种方法,您可能必须将列转换为Strings

我不确定python语法,如果有语法错误,只需编辑答案.

希望这对你有所帮助.最好的祝福


小智 5

使用struct

from pyspark.sql.functions import struct

df.withColumn("V_tuple", struct(df.V1,df.V2,df.V3))
Run Code Online (Sandbox Code Playgroud)