我正在尝试spark.local.dir使用spark-shell进行设置sc.getconf.set("spark.local.dir","/temp/spark"),但它无法正常工作.有没有其他方法可以从sparkshell设置此属性.
spark.local.dir
sc.getconf.set("spark.local.dir","/temp/spark")
scala apache-spark
HDFS中是否有任何命令来检查目录是否为空
hadoop hdfs
apache-spark ×1
hadoop ×1
hdfs ×1
scala ×1