Spark:尝试运行spark-shell,但得到'cmd'不被认为是内部或

Eli*_*naJ 8 apache-spark

我正在尝试在我的Windows桌面上安装Spark.一切都应该工作正常,但我得到一个错误"'cmd'不被识别为内部或外部命令......"

我在C:\中安装了Scala,Java JDK和解压缩的Spark tgz,但由于某种原因无法在cmd中启动Spark.有任何想法吗?

Eli*_*naJ 11

我的同事解决了这个问题.尽管Java似乎工作正常(参考图片),但是Spark尝试读取的Java路径在最后添加了一个额外的\ bin是不正确的.当它被删除后,Spark开始工作了!@gonbe,非常感谢你的帮助!


suz*_*omo 5

(我不是 Windows Spark 用户)Windows 源代码的 spark-shell.cmd 期望“cmd”命令在 PATH 中可用。

https://github.com/apache/spark/blob/master/bin/spark-shell.cmd

您会尝试在 PATH 环境变量中添加包含“cmd.exe”的目录吗?目录位置显示在屏幕截图的标题栏中,环境变量设置可以通过控制面板完成。

  • 我将路径 C:\Windows\System32 添加到 PATH 的开头,现在看起来像这样:C:\Windows\System32;%SCALA_HOME%\bin;C:\Anaconda;C:\dev\Java\jdk1 .8.0_45\bin;C:\Program Files\R\R-3.1.1\library\bin\x64... etc. 但是还是报错,现在是:“系统找不到指定的路径”。我尝试更改 PATH,再次加载 Java 等等,但没有帮助。 (2认同)

Sar*_*ian 5

我有类似的错误.我在修改后修改了它:

  1. 系统路径中有多个Java/bin路径.所以我更正了它们以反映单个Java/Bin,它与JAVA_HOME同步
  2. 将C:Windows\system32添加到系统路径变量.
  3. 我的Java_Home和java.exe指向不同的地方.我修好了他们.

现在它有效.

多谢你们.