找不到spark-sql中的聚合函数

Nie*_*and 13 scala apache-spark apache-spark-sql

我是Spark的新手,我正在尝试使用一些聚合功能,例如sum或avg.我在spark-shell中的查询非常有效:

val somestats = pf.groupBy("name").agg(sum("days")).show()
Run Code Online (Sandbox Code Playgroud)

当我尝试从scala项目运行它时,它不起作用,抛出错误消息

not found: value sum
Run Code Online (Sandbox Code Playgroud)

我试过补充一下

import sqlContext.implicits._
import org.apache.spark.SparkContext._
Run Code Online (Sandbox Code Playgroud)

就在命令之前,但它没有帮助.我的火花版是1.4.1我错过了什么?

Jus*_*ony 31

你需要这个导入:

import org.apache.spark.sql.functions._
Run Code Online (Sandbox Code Playgroud)