use*_*843 10 scala apache-spark apache-spark-mllib
我正在尝试使用Mllib构建一个非常简单的scala独立应用程序,但在尝试构建程序时出现以下错误:
Object Mllib is not a member of package org.apache.spark
Run Code Online (Sandbox Code Playgroud)
然后,我意识到我必须添加Mllib作为依赖,如下所示:
version := "1"
scalaVersion :="2.10.4"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "1.1.0",
"org.apache.spark" %% "spark-mllib" % "1.1.0"
)
Run Code Online (Sandbox Code Playgroud)
但是,我在这里得到一个错误:
unresolved dependency spark-core_2.10.4;1.1.1
: not found
所以我不得不修改它
"org.apache.spark" % "spark-core_2.10" % "1.1.1",
但仍有一个错误说:
unresolved dependency spark-mllib;1.1.1 : not found
任何人都知道如何在.sbt
文件中添加Mllib的依赖关系?
正如@lmm指出的那样,您可以将库包括为:
libraryDependencies ++= Seq(
"org.apache.spark" % "spark-core_2.10" % "1.1.0",
"org.apache.spark" % "spark-mllib_2.10" % "1.1.0"
)
在sbt %%中包含scala版本,并且您使用scala版本2.10.4构建,而Spark工件通常是针对2.10发布的.
应该注意的是,如果您要制作一个装配罐来部署您的应用程序,您可能希望标记为例如提供的spark-core
libraryDependencies ++= Seq(
"org.apache.spark" % "spark-core_2.10" % "1.1.0" % "provided",
"org.apache.spark" % "spark-mllib_2.10" % "1.1.0"
)
因为spark-core软件包无论如何都会在执行程序的路径中.
归档时间: |
|
查看次数: |
8621 次 |
最近记录: |