我正在尝试在Windows 10上安装spark,但是当我尝试运行pyspark时出错.
无法找到Spark jars目录.您需要在运行此程序之前构建Spark.
我按照这里指出的步骤直到第4步.
我去了Anaconda的Scripts和网站包.在Scripts中有pyspark spark-shell等等,但是site-packages中的pyspark文件夹既没有jars文件夹,也没有自己的bin文件夹.
罐子在哪里?
python windows anaconda apache-spark pyspark
anaconda ×1
apache-spark ×1
pyspark ×1
python ×1
windows ×1