Spark执行会出现"Invalid Log directory error"

pnk*_*pnk 6 apache-spark spark-dataframe

我是spark的新手,并试图在群集上执行我的jar.当我运行jar时,作业失败并出现错误错误:无效的日志目录/usr/share/spark-2.1.1/work//7/在另一个建议删除标志的线程中:SPARK_WORKER_OPTS =" - Dspark.worker .cleanup.enabled =真".我还更改了所有工作者的日志目录的权限.什么都没有帮助.有人可以帮助我理解它失败的原因.