eclipse(使用scala环境设置):对象apache不是软件包org的成员

Sha*_*wal 3 eclipse scala apache-spark

在此处输入图片说明

如图所示,当我导入Spark软件包时,它给出了错误。请帮忙。当我将鼠标悬停在那里时,它显示“对象apache不是org包的成员”。我搜索此错误,它表明火花罐尚未导入。因此,我也导入了“ spark-assembly-1.4.1-hadoop2.2.0.jar”。但仍然是相同的错误。以下是我实际要运行的内容:

 import org.apache.spark.{SparkConf, SparkContext}
 object ABC {

 def main(args: Array[String]){
//Scala Main Method

println("Spark Configuration")

val conf = new SparkConf()

conf.setAppName("My First Spark Scala Application")

conf.setMaster("spark://ip-10-237-224-94:7077")

println("Creating Spark Context")
}
}
Run Code Online (Sandbox Code Playgroud)

sud*_*d29 5

spark-core在您的类路径中添加jar应该可以解决您的问题。另外,如果您使用的是MavenGradle之类的构建工具(如果没有,则应该这样做,因为spark-core有很多依赖关系,并且对于不同的jar也会出现这种问题),请尝试使用这些工具提供的Eclipse任务来正确设置项目中的类路径。