相关疑难解决方法(0)

如何将-D参数或环境变量传递给Spark作业?

我想在dev/prod环境中更改Spark作业的Typesafe配置.在我看来,实现这一目标的最简单方法是转到-Dconfig.resource=ENVNAME工作岗位.然后Typesafe配置库将为我完成工作.

有没有办法直接将该选项传递给作业?或者也许有更好的方法在运行时更改作业配置?

编辑:

  • 当我--conf "spark.executor.extraJavaOptions=-Dconfig.resource=dev"spark-submit命令添加选项时没有任何反应.
  • Error: Unrecognized option '-Dconfig.resource=dev'.当我传递-Dconfig.resource=devspark-submit命令时,我得到了.

scala apache-spark

75
推荐指数
4
解决办法
7万
查看次数

标签 统计

apache-spark ×1

scala ×1