小编pnk*_*pnk的帖子

Spark执行会出现"Invalid Log directory error"

我是spark的新手,并试图在群集上执行我的jar.当我运行jar时,作业失败并出现错误错误:无效的日志目录/usr/share/spark-2.1.1/work//7/在另一个建议删除标志的线程中:SPARK_WORKER_OPTS =" - Dspark.worker .cleanup.enabled =真".我还更改了所有工作者的日志目录的权限.什么都没有帮助.有人可以帮助我理解它失败的原因.

apache-spark spark-dataframe

6
推荐指数
0
解决办法
406
查看次数

标签 统计

apache-spark ×1

spark-dataframe ×1