相关疑难解决方法(0)

Spark 安装 - 错误:无法找到或加载主类 org.apache.spark.launcher.Main

Spark 安装 2.3 并在 .bashrc 中设置以下环境变量后(使用 gitbash)

  1. HADOOP_HOME

  2. SPARK_HOME

  3. PYSPARK_PYTHON

  4. JDK_HOME

执行$SPARK_HOME/bin/spark-submit显示以下错误。

错误:无法找到或加载主类 org.apache.spark.launcher.Main

我在 stackoverflow 和其他网站上做了一些研究检查,但无法找出问题所在。

执行环境

  1. Windows 10 企业版
  2. 火花版本 - 2.3
  3. Python 版本 - 3.6.4

您能提供一些指示吗?

python apache-spark windows-10

4
推荐指数
1
解决办法
2万
查看次数

标签 统计

apache-spark ×1

python ×1

windows-10 ×1