Sha*_*wal 3 eclipse scala apache-spark
如图所示,当我导入Spark软件包时,它给出了错误。请帮忙。当我将鼠标悬停在那里时,它显示“对象apache不是org包的成员”。我搜索此错误,它表明火花罐尚未导入。因此,我也导入了“ spark-assembly-1.4.1-hadoop2.2.0.jar”。但仍然是相同的错误。以下是我实际要运行的内容:
import org.apache.spark.{SparkConf, SparkContext}
object ABC {
def main(args: Array[String]){
//Scala Main Method
println("Spark Configuration")
val conf = new SparkConf()
conf.setAppName("My First Spark Scala Application")
conf.setMaster("spark://ip-10-237-224-94:7077")
println("Creating Spark Context")
}
}
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
8616 次 |
| 最近记录: |