小编And*_*rea的帖子

设置了SPARK_HOME env变量,但Jupyter Notebook没有看到它.(视窗)

我在Windows 10上.我试图让Spark与Jupyter笔记本一起运行并与Python 3.5一起运行.我安装了预构建版本的Spark并设置了SPARK_HOME环境变量.我安装了findspark并运行代码:

import findspark
findspark.init()
Run Code Online (Sandbox Code Playgroud)

我收到一个Value错误:

ValueError:找不到Spark,确保设置了SPARK_HOME env或Spark位于预期位置(例如来自自制软件安装).

但是设置了SPARK_HOME变量.是一个屏幕截图,显示了我系统上的环境变量列表.

有没有人遇到过这个问题或者知道如何解决这个问题?我只发现了一个旧的讨论,其中有人将SPARK_HOME设置到错误的文件夹但我不认为这是我的情况.

python-3.x apache-spark pyspark

6
推荐指数
3
解决办法
1万
查看次数

标签 统计

apache-spark ×1

pyspark ×1

python-3.x ×1