小编mar*_* lb的帖子

无法找到Spark jars目录.您需要在运行此程序之前构建Spark

我正在尝试在Windows 10上安装spark,但是当我尝试运行pyspark时出错.

无法找到Spark jars目录.您需要在运行此程序之前构建Spark.

我按照这里指出的步骤直到第4步.

我去了Anaconda的Scripts和网站包.在Scripts中有pyspark spark-shell等等,但是site-packages中的pyspark文件夹既没有jars文件夹,也没有自己的bin文件夹.

罐子在哪里?

python windows anaconda apache-spark pyspark

5
推荐指数
1
解决办法
3310
查看次数

标签 统计

anaconda ×1

apache-spark ×1

pyspark ×1

python ×1

windows ×1