Mllib依赖错误

use*_*843 10 scala apache-spark apache-spark-mllib

我正在尝试使用Mllib构建一个非常简单的scala独立应用程序,但在尝试构建程序时出现以下错误:

Object Mllib is not a member of package org.apache.spark
Run Code Online (Sandbox Code Playgroud)

然后,我意识到我必须添加Mllib作为依赖,如下所示:

version := "1"
scalaVersion :="2.10.4"

libraryDependencies ++= Seq(
"org.apache.spark"  %% "spark-core"              % "1.1.0",
"org.apache.spark"  %% "spark-mllib"             % "1.1.0"
)
Run Code Online (Sandbox Code Playgroud)

但是,我在这里得到一个错误:

unresolved dependency spark-core_2.10.4;1.1.1 : not found

所以我不得不修改它

"org.apache.spark" % "spark-core_2.10" % "1.1.1",

但仍有一个错误说:

unresolved dependency spark-mllib;1.1.1 : not found

任何人都知道如何在.sbt文件中添加Mllib的依赖关系?

Hol*_*den 9

正如@lmm指出的那样,您可以将库包括为:

libraryDependencies ++= Seq( "org.apache.spark" % "spark-core_2.10" % "1.1.0", "org.apache.spark" % "spark-mllib_2.10" % "1.1.0" )

在sbt %%中包含scala版本,并且您使用scala版本2.10.4构建,而Spark工件通常是针对2.10发布的.

应该注意的是,如果您要制作一个装配罐来部署您的应用程序,您可能希望标记为例如提供的spark-core

libraryDependencies ++= Seq( "org.apache.spark" % "spark-core_2.10" % "1.1.0" % "provided", "org.apache.spark" % "spark-mllib_2.10" % "1.1.0" )

因为spark-core软件包无论如何都会在执行程序的路径中.