我在我的本地Windows机器上运行spark.我能够成功启动spark shell.
我想编辑驻留在conf /文件夹中的spark-env.sh文件.将值添加到spark-env.sh文件的正确方法是什么.
例如,如果我想为SPARK_EXECUTOR_MEMORY变量添加值怎么做?我对可用的不同答案感到困惑1. SPARK_EXECUTOR_MEMORY ="2G"2.导出
windows scala config apache-spark
apache-spark ×1
config ×1
scala ×1
windows ×1