相关疑难解决方法(0)

Spark-shell 系统找不到指定的路径

我正在尝试在Windows 7上的cmd提示符下运行spark-shell命令。我已经安装了hadoop并将其保存在C:\winutils\hadoop-common-2.2.0-bin-master\bin下,Spark保存在C:\Spark下\spark-2.2.1-bin-hadoop2.7\bin。

在执行 Spark-shell 时,我收到以下错误。

C:\Spark\spark-2.2.1-bin-hadoop2.7\bin>spark-shell 系统找不到指定的路径。

以下是我的环境变量

HADOOP_HOME C:\winutils

JAVA_HOME   C:\Program Files\IBM\Java80\jre

PATH        C:\Users\IBM_ADMIN\AppData\Local\Programs\Python\Python36-32;C:\IBM\InformationServer\Clients\Classic;C:\Program Files\IBM\Java80\jre;C:\Windows\system32

SCALA_HOME  C:\Program Files (x86)\scala\
Run Code Online (Sandbox Code Playgroud)

截屏

截屏

apache-spark

5
推荐指数
2
解决办法
1万
查看次数

pyspark:系统找不到指定的路径

我刚刚使用conda安装了pyspark 2.2.0(在windows 7 64位上使用python v3.6,java v1.8)

$conda install pyspark
Run Code Online (Sandbox Code Playgroud)

它下载并似乎安装正确,没有错误。现在,当我pyspark在命令行上运行时,它只是告诉我“系统找不到指定的路径”。

$pyspark
The system cannot find the path specified.
The system cannot find the path specified.
Run Code Online (Sandbox Code Playgroud)

我尝试将 pyspark 路径目录包含在我的 PATH 环境变量中,但这似乎仍然不起作用,但也许我给出了错误的路径?任何人都可以请建议。Java路径需要在PATH环境变量中指定吗?谢谢

python environment-variables pyspark

3
推荐指数
1
解决办法
2万
查看次数