有没有办法在 AWS Glue 中设置多个 --conf 作为作业参数?

tn.*_*ter 2 amazon-web-services apache-spark pyspark aws-glue

我正在尝试在我的 Glue 作业中配置 Spark。当我尝试在“编辑作业”中将它们一一输入时,“作业参数”作为键和值对(例如键:--conf值:spark.executor.memory=10g)它可以工作,但是当我尝试将它们放入时完全(由空格或逗号分隔),会导致错误。我还尝试使用 sc._conf.setAll 但 Glue 忽略配置并坚持使用其默认值。Spark 2.4 有办法做到这一点吗?

小智 8

是的,您可以传递多个参数,如下所示:

关键: --conf

值: spark.yarn.executor.memoryOverhead=7g --conf Spark.yarn.executor.memory=7g