由于某种原因,Spark 由于错误而停止工作:
Files\Java\jdk1.8.0_131""=="x" 这时候出乎意料。
我在具有管理员权限的命令提示符下在 Windows10 上运行 Spark。
我试图解决问题的事情:
我在用:
java apache-spark
apache-spark ×1
java ×1