相关疑难解决方法(0)

在运行spark-shell之前编辑spark-env.sh的正确方法是什么?

我在我的本地Windows机器上运行spark.我能够成功启动spark shell.

我想编辑驻留在conf /文件夹中的spark-env.sh文件.将值添加到spark-env.sh文件的正确方法是什么.

例如,如果我想为SPARK_EXECUTOR_MEMORY变量添加值怎么做?我对可用的不同答案感到困惑1. SPARK_EXECUTOR_MEMORY ="2G"2.导出

windows scala config apache-spark

3
推荐指数
2
解决办法
4993
查看次数

标签 统计

apache-spark ×1

config ×1

scala ×1

windows ×1