小编Nat*_*ats的帖子

如何在spark sql中合并map列?

我在数据框中有两个地图类型列。有没有办法可以使用 .withColumn 创建一个新的 Map 列,合并 Spark Sql 中的这两列?

val sampleDF = Seq(
 ("Jeff", Map("key1" -> "val1"), Map("key2" -> "val2"))
).toDF("name", "mapCol1", "mapCol2")

sampleDF.show()

+----+-----------------+-----------------+
|name|          mapCol1|          mapCol2|
+----+-----------------+-----------------+
|Jeff|Map(key1 -> val1)|Map(key2 -> val2)|
+----+-----------------+-----------------+
Run Code Online (Sandbox Code Playgroud)

apache-spark apache-spark-sql

2
推荐指数
2
解决办法
8388
查看次数

标签 统计

apache-spark ×1

apache-spark-sql ×1