Spark 安装 2.3 并在 .bashrc 中设置以下环境变量后(使用 gitbash)
HADOOP_HOME
SPARK_HOME
PYSPARK_PYTHON
JDK_HOME
执行$SPARK_HOME/bin/spark-submit显示以下错误。
错误:无法找到或加载主类 org.apache.spark.launcher.Main
我在 stackoverflow 和其他网站上做了一些研究检查,但无法找出问题所在。
执行环境
您能提供一些指示吗?
python apache-spark windows-10
apache-spark ×1
python ×1
windows-10 ×1