我想安装pyspark在我的家用机器上.我做到了
pip install pyspark
pip install jupyter
Run Code Online (Sandbox Code Playgroud)
两者似乎运作良好.
但是当我试着奔跑时,pyspark我得到了
pyspark
Could not find valid SPARK_HOME while searching ['/home/user', '/home/user/.local/bin']
Run Code Online (Sandbox Code Playgroud)
应该SPARK_HOME设置什么?
Mar*_*usz 20
我刚刚面临同样的问题,但事实证明,pip install pyspark下载引发了在本地模式下运行良好的分配.Pip只是没有设置合适SPARK_HOME.但是当我手动设置它时,pyspark就像一个魅力(没有下载任何额外的包).
$ pip3 install --user pyspark
Collecting pyspark
Downloading pyspark-2.3.0.tar.gz (211.9MB)
100% |????????????????????????????????| 211.9MB 9.4kB/s
Collecting py4j==0.10.6 (from pyspark)
Downloading py4j-0.10.6-py2.py3-none-any.whl (189kB)
100% |????????????????????????????????| 194kB 3.9MB/s
Building wheels for collected packages: pyspark
Running setup.py bdist_wheel for pyspark ... done
Stored in directory: /home/mario/.cache/pip/wheels/4f/39/ba/b4cb0280c568ed31b63dcfa0c6275f2ffe225eeff95ba198d6
Successfully built pyspark
Installing collected packages: py4j, pyspark
Successfully installed py4j-0.10.6 pyspark-2.3.0
$ PYSPARK_PYTHON=python3 SPARK_HOME=~/.local/lib/python3.5/site-packages/pyspark pyspark
Python 3.5.2 (default, Nov 23 2017, 16:37:01)
[GCC 5.4.0 20160609] on linux
Type "help", "copyright", "credits" or "license" for more information.
2018-03-31 14:02:39 WARN NativeCodeLoader:62 - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/__ / .__/\_,_/_/ /_/\_\ version 2.3.0
/_/
Using Python version 3.5.2 (default, Nov 23 2017 16:37:01)
>>>
Run Code Online (Sandbox Code Playgroud)
希望有所帮助:-)
来自PyPi的Pyspark(即安装pip)不包含完整的Pyspark功能; 它仅适用于现有集群中的Spark安装[编辑:或仅在本地模式 - 请参阅接受的答案].来自文档:
Spark的Python包装并不是要替换所有其他用例.这个Python的Python打包版本适合与现有集群(无论是Spark独立,YARN还是Mesos)进行交互 - 但不包含设置自己的独立Spark集群所需的工具.您可以从Apache Spark下载页面下载完整版本的Spark.
注意:如果您在Spark独立群集中使用此功能,则必须确保版本(包括次要版本)匹配,否则您可能会遇到奇怪的错误
您应该按照此处的说明下载完整的Spark发行版.
| 归档时间: |
|
| 查看次数: |
18052 次 |
| 最近记录: |