在Intellij中运行Spark时出错:"对象apache不是包org的成员"

Lea*_*ner 7 scala apache-spark intellij-14

我在Intellij上运行Spark程序并得到以下错误:"object apache不是包org的成员".

我在代码中使用了这些import语句:

import org.apache.spark.SparkContext  
import org.apache.spark.SparkContext._  
import org.apache.spark.SparkConf
Run Code Online (Sandbox Code Playgroud)

上面的import语句也没有在sbt提示符下运行.相应的lib似乎缺失但我不确定如何复制相同的和在哪个路径.

Vid*_*dya 7

确保在SBT中有这样的条目:

scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "2.1.0", 
  "org.apache.spark" %% "spark-sql" % "2.1.0" 
)
Run Code Online (Sandbox Code Playgroud)

然后确保IntelliJ通过启用"自动导入"或通过单击SBT面板上的刷新外观按钮手动执行来了解这些库.

  • 将您的 Scala 版本更改为 `2.11.8` (2认同)