小编use*_*110的帖子

SBT组装罐排除

我使用spark(在java API中)并且需要一个可以推送到集群的jar,但是jar本身不应该包含spark.部署作业的应用程序当然应该包括spark.

我想要:

  1. sbt run - 应该编译和执行所有内容
  2. sbt smallAssembly - 创建一个没有火花的罐子
  3. sbt assembly - 创建一个包含所有内容(包括spark)的超级jar,以便于部署.

我有1.和3.工作.关于我怎么可以2的任何想法?我需要将哪些代码添加到build.sbt文件中?

这个问题不仅与火花有关,而且与我可能希望排除的任何其他依赖性无关.

jar sbt sbt-assembly apache-spark

12
推荐指数
2
解决办法
9222
查看次数

标签 统计

apache-spark ×1

jar ×1

sbt ×1

sbt-assembly ×1