Ale*_*s R 3 scala apache-spark apache-spark-sql
我有一个带有一个结构类型列的数据框。示例数据框架构是:
root
|-- Data: array (nullable = true)
| |-- element: struct (containsNull = true)
| | |-- name: string (nullable = true)
| | |-- value: string (nullable = true)
Run Code Online (Sandbox Code Playgroud)
字段name保存列名,字段value保存列值。列中的元素数量Data未定义,因此可能会有所不同。我需要解析该数据并摆脱嵌套结构。(在这种情况下数组Explode将不起作用,因为一行中的数据属于一个元素)。真正的模式要大得多,并且具有多个数组字段(例如“数据”),因此我的目标是创建一个通用解决方案,我将将该解决方案应用于类似的结构数组。例子:
样本数据:
val data = Seq(
"""{"Data": [{ "name": "FName", "value": "Alex" }, { "name": "LName", "value": "Strong" }]}""",
"""{"Data": [{ "name": "FName", "value": "Robert " }, { "name": "MName", "value": "Nesta " }]} { "name": "LName", "value": "Marley" }]}"""
)
val df = spark.read.json(spark.sparkContext.parallelize(data))
Run Code Online (Sandbox Code Playgroud)
预期结果:
+-------+------+
| FName| LName|
+-------+------+
| Alex|Strong|
|Robert |Marley|
+-------+------+
Run Code Online (Sandbox Code Playgroud)
作为解决方案,我创建了一个在整个列上执行的 UDF Data。作为输入参数,我传递列名和我想要提取的字段名。
val find_scheme_name_in_array = udf { (arr: Seq[Row], columnName: String) => {
var value = ""
arr.foreach(el =>
if(el.getAs[String]("name") == columnName){
value = el.getAs[String]("value")
}
)
value
}}
Run Code Online (Sandbox Code Playgroud)
问题是我使用变量value来存储中间结果,并且我不想为将执行 UDF 的每一行创建一个新的变量。
我执行 UDF 的方式(该查询生成预期结果):
df.select(find_scheme_name_in_array(col("Data"), lit("FName")).as("FName"),find_scheme_name_in_array(col("Data"), lit("LName")).as("LName")).show()
Run Code Online (Sandbox Code Playgroud)
我很高兴听到有关如何改进 UDF 逻辑以及解决解析问题的一些不同方法的任何评论。
foreach我通过用方法替换循环解决了这个问题find:
val find_scheme_name_in_array = udf { (arr: Seq[Row], columnName: String) =>
arr.find(_.getAs[String]("name") == columnName) match {
case Some(i) => i.getAs[String]("value")
case None => null
}
}
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
12640 次 |
| 最近记录: |