我正在尝试在我的Windows桌面上安装Spark.一切都应该工作正常,但我得到一个错误"'cmd'不被识别为内部或外部命令......"
我在C:\中安装了Scala,Java JDK和解压缩的Spark tgz,但由于某种原因无法在cmd中启动Spark.有任何想法吗?

Eli*_*naJ 11
我的同事解决了这个问题.尽管Java似乎工作正常(参考图片),但是Spark尝试读取的Java路径在最后添加了一个额外的\ bin是不正确的.当它被删除后,Spark开始工作了!@gonbe,非常感谢你的帮助!
(我不是 Windows Spark 用户)Windows 源代码的 spark-shell.cmd 期望“cmd”命令在 PATH 中可用。
https://github.com/apache/spark/blob/master/bin/spark-shell.cmd
您会尝试在 PATH 环境变量中添加包含“cmd.exe”的目录吗?目录位置显示在屏幕截图的标题栏中,环境变量设置可以通过控制面板完成。
我有类似的错误.我在修改后修改了它:
现在它有效.
多谢你们.