相关疑难解决方法(0)

Spark:尝试运行spark-shell,但得到'cmd'不被认为是内部或

我正在尝试在我的Windows桌面上安装Spark.一切都应该工作正常,但我得到一个错误"'cmd'不被识别为内部或外部命令......"

我在C:\中安装了Scala,Java JDK和解压缩的Spark tgz,但由于某种原因无法在cmd中启动Spark.有任何想法吗?

apache-spark

8
推荐指数
3
解决办法
3万
查看次数

标签 统计

apache-spark ×1