如何从spark shell设置spark.local.dir属性?

VSP*_*VSP 7 scala apache-spark

我正在尝试spark.local.dir使用spark-shell进行设置sc.getconf.set("spark.local.dir","/temp/spark"),但它无法正常工作.有没有其他方法可以从sparkshell设置此属性.

Tza*_*har 11

你不能从做壳-因为星火方面已经建立,所以本地目录已被设置(和使用).您应该在启动 shell 时将其作为参数传递:

./spark-shell --conf spark.local.dir=/temp/spark
Run Code Online (Sandbox Code Playgroud)