VSP*_*VSP 7 scala apache-spark
我正在尝试spark.local.dir使用spark-shell进行设置sc.getconf.set("spark.local.dir","/temp/spark"),但它无法正常工作.有没有其他方法可以从sparkshell设置此属性.
Tza*_*har 11
你不能从做内壳-因为星火方面已经建立,所以本地目录已被设置(和使用).您应该在启动 shell 时将其作为参数传递:
./spark-shell --conf spark.local.dir=/temp/spark
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
9708 次 |
| 最近记录: |