小编YAC*_*ACI的帖子

使用 sbt run 或使用 spark-submit 脚本运行 spark 应用程序的区别

我是 Spark 的新手,在学习这个框架时,我发现,据我所知,用 Scala 编写的 Spark 应用程序有两种运行方式:

  1. 将项目打包成 JAR 文件,然后使用 spark-submit 脚本运行它。
  2. 使用 sbt run 直接运行项目。

我想知道这两种执行模式之间的区别可能是什么,尤其是当使用 sbt run 运行时,当它与 spark-submit 完美运行时,可能会抛出 java.lang.InterruptedException。

谢谢!

scala sbt apache-spark spark-submit

1
推荐指数
1
解决办法
1039
查看次数

标签 统计

apache-spark ×1

sbt ×1

scala ×1

spark-submit ×1