Igo*_* K. 4 scala sbt scala-ide spark-streaming apache-nifi
我有一个使用Apache NiFi接收器的火花流Scala项目.这些项目在Eclipse/Scala IDE下运行良好,现在我想将其打包以进行部署.当我把它添加为
libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"
Run Code Online (Sandbox Code Playgroud)
sbt假设它是一个Scala库并试图解决它.
我如何将NiFi接收器及其所有依赖项添加到项目的SBT文件中?
此外,是否有可能将依赖项pint到本地目录而不是sbt试图解决?
提前致谢.
这是我的sbt文件内容:
name := "NiFi Spark Test"
version := "1.0"
scalaVersion := "2.10.5"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2" % "provided"
libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"
Run Code Online (Sandbox Code Playgroud)
libraryDependencies + ="org.apache.nifi" %% "nifi-spark-receiver"%"0.3.0"
Double%用于将scala版本添加为maven artefact的后缀.这是必需的,因为不同的scala编译器版本会产生不兼容的字节码.如果你想从maven使用java库,那么你应该使用单个%字符
libraryDependencies += "org.apache.nifi" % "nifi-spark-receiver" % "0.3.0"
Run Code Online (Sandbox Code Playgroud)