对象spark不是包org的成员

Adh*_*ham 9 scala sbt scala-ide apache-spark

在Eclipse Scala-IDE中导入以下内容时

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
Run Code Online (Sandbox Code Playgroud)

我收到此错误: Object spark is not a member of package org

我安装了sbt-0.13.9.msi

我还该怎么办?

build.sbt

name := "scala-spark-app"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2"
Run Code Online (Sandbox Code Playgroud)

lay*_*lom 3

我在成功执行 IntelliJ 时收到了相同的编译错误(在我的 Mac 上)sbt compile。以下步骤解决了我的问题:

  1. sbt清洁
  2. sbt gen-idea(重建 IntelliJ 项目文件)
  3. 退出并重新启动 IntelliJ

我希望这有帮助。