运行spark-shell命令时出现以下错误:
我从http://spark.apache.org/downloads.html下载了spark-2.1.1-bin-hadoop2.7.tgz文件,解压缩tar文件并将文件夹的内容粘贴到c:\ Spark目录中.之后我相应地为spark和jdk配置了环境变量,但是我收到了这个错误.任何帮助将不胜感激.
我已经找到很多关于此错误的文章,尝试了所有操作,但仍然出现相同的错误。我正在尝试从远程应用程序和mysql客户端连接到ubuntu服务器上的mysql。让我发布已经采取的所有步骤: