Gis*_*gen 6 scala intellij-idea sbt apache-spark
我在第一个项目中创建了Spark依赖项。但是,当我尝试使用Spark制作新项目时,我的SBT不会导入org.apache.spark的外部jar。因此,IntelliJ Idea给出了“无法解析符号”的错误。我已经尝试过从头开始制作一个新项目并使用自动导入功能,但是没有任何效果。当我尝试编译时,收到消息“对象apache不是包org的成员”。我的build.sbt看起来像这样:
name := "hello"
version := "1.0"
scalaVersion := "2.11.7"
libraryDependencies += "org.apache.spark" % "spark-parent_2.10" % "1.4.1"
Run Code Online (Sandbox Code Playgroud)
我的印象是我的SBT设置可能有问题,尽管它已经运行了一次。并且除了外部库之外,其他所有东西都是相同的...我也尝试导入我的spark依赖项的pom.xml文件,但这也行不通。先感谢您!
这对我有用->
name := "ProjectName"
version := "0.1"
scalaVersion := "2.11.11"
libraryDependencies ++= Seq(
"org.apache.spark" % "spark-core_2.11" % "2.2.0",
"org.apache.spark" % "spark-sql_2.11" % "2.2.0",
"org.apache.spark" % "spark-mllib_2.10" % "1.1.0"
)
Run Code Online (Sandbox Code Playgroud)
我用
scalaVersion := "2.11.7"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.4.1"
Run Code Online (Sandbox Code Playgroud)
在我的build.sbt,它对我有用。
| 归档时间: |
|
| 查看次数: |
23470 次 |
| 最近记录: |