Pra*_*nki 0 scala apache-spark spark-dataframe
我想做这样的事情:
df
.withColumn("newCol", <some formula>)
.filter(s"""newCol > ${(math.min(max("newCol").asInstanceOf[Double],10))}""")
Run Code Online (Sandbox Code Playgroud)
我得到的例外:
org.apache.spark.sql.Column cannot be cast to java.lang.Double
Run Code Online (Sandbox Code Playgroud)
你能建议我一种方法来实现我想要的吗?
我假设newCol已经存在于 中df,那么:
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.functions._
df
.withColumn("max_newCol",max($"newCol").over(Window.partitionBy()))
.filter($"newCol"> least($"max_newCol",lit(10.0)))
Run Code Online (Sandbox Code Playgroud)
代替max($"newCol").over(Window.partitionBy())你也可以 jjst 写max($"newCol").over()
| 归档时间: |
|
| 查看次数: |
6736 次 |
| 最近记录: |