Exp*_*rer 7 scala apache-spark apache-spark-sql apache-spark-1.5
我正在从堆栈溢出帖子中找到这个解决方案,我唯一的要求是如何在应用df.agg(sum())函数之前将我想要求和的值限制为小数点后的2位数?
例如:我有如下的值,sum函数对它进行求和,
2.346
1.549
Run Code Online (Sandbox Code Playgroud)
但是我希望将值舍入为小数点后的2位数
2.35
1.55
Run Code Online (Sandbox Code Playgroud)
在总结之前.我该怎么做?我无法找到任何功能的子sum().round功能sum.
注意:我使用的是Spark 1.5.1版本.
Psi*_*dom 10
你可以使用bround:
val df = Seq(2.346, 1.549).toDF("A")
df.select(bround(df("A"), 2)).show
+------------+
|bround(A, 2)|
+------------+
| 2.35|
| 1.55|
+------------+
df.agg(sum(bround(df("A"), 2)).as("appSum")).show
+------------------+
| appSum|
+------------------+
|3.9000000000000004|
+------------------+
^
df.agg(sum(df("A")).as("exactSum")).show
+--------+
|exactSum|
+--------+
| 3.895|
+--------+
Run Code Online (Sandbox Code Playgroud)
上面的解决方案确实适用于 spark 2.0 版本,但是对于像我这样仍在使用 1.5.*+ 版本的人来说是可行的。(我使用了@Psidom 建议的圆形函数):
val df = Seq(2.346, 1.549).toDF("A")
df.select(bround(df("A"), 2)).show
+------------+
|bround(A, 2)|
+------------+
| 2.35|
| 1.55|
+------------+
val total=df.agg(sum(round(df.col(colName),2)).cast("double")).first.getDouble(0)
total: Double = 3.90
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
11210 次 |
| 最近记录: |