我是 Spark 的新手,在学习这个框架时,我发现,据我所知,用 Scala 编写的 Spark 应用程序有两种运行方式:
我想知道这两种执行模式之间的区别可能是什么,尤其是当使用 sbt run 运行时,当它与 spark-submit 完美运行时,可能会抛出 java.lang.InterruptedException。
谢谢!
scala sbt apache-spark spark-submit
apache-spark ×1
sbt ×1
scala ×1
spark-submit ×1