Avi*_*jit 2 scala apache-spark apache-spark-sql
我正在尝试比较下面的当前行和上一行的记录DataFrame。我要计算“金额”列。
scala> val dataset = sc.parallelize(Seq((1, 123, 50), (2, 456, 30), (3, 456, 70), (4, 789, 80))).toDF("SL_NO","ID","AMOUNT")
scala> dataset.show
+-----+---+------+
|SL_NO| ID|AMOUNT|
+-----+---+------+
| 1|123| 50|
| 2|456| 30|
| 3|456| 70|
| 4|789| 80|
+-----+---+------+
Run Code Online (Sandbox Code Playgroud)
计算逻辑:
其他行也需要遵循相同的逻辑。
预期产量:
+-----+---+------+
|SL_NO| ID|AMOUNT|
+-----+---+------+
| 1|123| 50|
| 2|456| 30|
| 3|456| 30|
| 4|789| 80|
+-----+---+------+
Run Code Online (Sandbox Code Playgroud)
请帮忙。
您可以lag与结合使用when.otherwise,这是一个演示:
import org.apache.spark.sql.expressions.Window
val w = Window.orderBy($"SL_NO")
dataset.withColumn("AMOUNT",
when($"ID" === lag($"ID", 1).over(w), lag($"AMOUNT", 1).over(w)).otherwise($"AMOUNT")
).show
+-----+---+------+
|SL_NO| ID|AMOUNT|
+-----+---+------+
| 1|123| 50|
| 2|456| 30|
| 3|456| 30|
| 4|789| 80|
+-----+---+------+
Run Code Online (Sandbox Code Playgroud)
注意:由于此示例不使用任何分区,因此在实际数据中可能会出现性能问题,如果您的问题可以由某些变量进行分区,这可能会有所帮助,Window.orderBy($"SL_NO").partitionBy($"ID")具体取决于您的实际问题以及ID是否一起排序。