我正在尝试在Windows 7上的cmd提示符下运行spark-shell命令。我已经安装了hadoop并将其保存在C:\winutils\hadoop-common-2.2.0-bin-master\bin下,Spark保存在C:\Spark下\spark-2.2.1-bin-hadoop2.7\bin。
在执行 Spark-shell 时,我收到以下错误。
C:\Spark\spark-2.2.1-bin-hadoop2.7\bin>spark-shell 系统找不到指定的路径。
以下是我的环境变量
HADOOP_HOME C:\winutils
JAVA_HOME C:\Program Files\IBM\Java80\jre
PATH C:\Users\IBM_ADMIN\AppData\Local\Programs\Python\Python36-32;C:\IBM\InformationServer\Clients\Classic;C:\Program Files\IBM\Java80\jre;C:\Windows\system32
SCALA_HOME C:\Program Files (x86)\scala\
Run Code Online (Sandbox Code Playgroud)
截屏

我刚刚使用conda安装了pyspark 2.2.0(在windows 7 64位上使用python v3.6,java v1.8)
$conda install pyspark
Run Code Online (Sandbox Code Playgroud)
它下载并似乎安装正确,没有错误。现在,当我pyspark在命令行上运行时,它只是告诉我“系统找不到指定的路径”。
$pyspark
The system cannot find the path specified.
The system cannot find the path specified.
Run Code Online (Sandbox Code Playgroud)
我尝试将 pyspark 路径目录包含在我的 PATH 环境变量中,但这似乎仍然不起作用,但也许我给出了错误的路径?任何人都可以请建议。Java路径需要在PATH环境变量中指定吗?谢谢