如何设置Spark应用程序退出状态?

roh*_*roh 5 exit-code hadoop-yarn apache-spark spark-submit

我正在编写一个spark应用程序并使用spark-submit shell脚本运行它(使用yarn-cluster/yarn-client)

正如我现在看到的,spark-submit的退出代码是根据相关的纱线应用决定的 - 如果SUCCEEDED状态为0,否则为1.

我想要选择返回另一个退出代码 - 对于我的应用程序成功发生一些错误的状态.

可能吗?从应用程序返回不同的退出代码?

我试过使用System.exit()但没有成功......

谢谢.

cod*_*ode 0

在客户端模式下可以,但在集群模式下不行。您有一个针对集群模式的解决方法。

我对这个问题的回答应该对你有帮助。