无法找到Spark jars目录.您需要在运行此程序之前构建Spark

mar*_* lb 5 python windows anaconda apache-spark pyspark

我正在尝试在Windows 10上安装spark,但是当我尝试运行pyspark时出错.

无法找到Spark jars目录.您需要在运行此程序之前构建Spark.

我按照这里指出的步骤直到第4步.

我去了Anaconda的Scripts和网站包.在Scripts中有pyspark spark-shell等等,但是site-packages中的pyspark文件夹既没有jars文件夹,也没有自己的bin文件夹.

罐子在哪里?

小智 -2

导致此错误的原因之一是,在设置路径时 Spark_home 路径可能包含“C:/Users//apache Spark/bin”之类的空格

只需删除空格或更改为另一个目录即可。