spark数据框计算列

use*_*122 2 scala apache-spark apache-spark-sql spark-dataframe

我正在学习 spark (scala),我正在创建一个带有派生列的数据框。我正在尝试找出最佳实践。

我的用例有 2 个派生列,它们查找另一个列的值 - 例如 -

if (col22 = "USD") then col1 = "US" elseif (col22 = "CDN" the col1 = "CA" else null)
Run Code Online (Sandbox Code Playgroud)

另一个用例是

if(col23 = "us" && col100 = "abc") then col2 = "10" else if (col23 = "us" && col100 = "bacd" && col99 is null then col2 = 11 else null)
Run Code Online (Sandbox Code Playgroud)

问题 - 我已经为上述计算编写了 UDF 函数。我想知道有没有更好的方法来做到这一点?写一个udf函数是最好的做法。我将在我的代码中只使用一次这些函数。

我的 Scala 代码 -

def udf1 = udf((col22: String){  (col22) match {
    case col22 if (col22 == "USD") => "US"
    case col22 if (col22 == "CDN") => "CA"
    case _ => null  } })

val df1= df.select($"col1", $"col2", udf1($"col22").as("newcol"), udf2($"col23", $"col100").as(newcol2))
Run Code Online (Sandbox Code Playgroud)

Dav*_*fin 5

您可以执行以下操作:

val df1 = df.withColumn(
  "newcol",
  when($"col22" === "USD", lit("US")).otherwise(
    when($"col22" === "CDN", lit("CA")).otherwise(lit(null))
  )
)
Run Code Online (Sandbox Code Playgroud)