我正在使用用 Scala 和 IntelliJ IDE 开发的 Spark 开始一个项目。
我想知道如何-- properties-file在 IntelliJ 配置中设置Spark 的特定配置。
我正在阅读这样的配置 "param1" -> sc.getConf.get("param1")
当我从命令行执行 Spark 作业时,它就像一个魅力:
/opt/spark/bin/spark-submit --class "com.class.main" --master local --properties-file properties.conf ./target/scala-2.11/main.jar arg1 arg2 arg3 arg4
问题是当我使用 IntelliJ 运行配置执行作业时VM Options:
--masterparam as-Dspark.master=local--confparams 作为-Dspark.param1=value1--properties-file任何人都可以指出我设置它的正确方法吗?