为PySpark捆绑Python3包会导致导入丢失

Tom*_*ous 7 python numpy python-3.x apache-spark pyspark

我正在尝试运行依赖于某些python3库的PySpark作业.我知道我可以在Spark Cluster上安装这些库,但由于我正在重新使用群集进行多个作业,我想将所有依赖项捆绑在一起并通过--py-files指令将它们传递给每个作业.

为此,我使用:

pip3 install -r requirements.txt --target ./build/dependencies
cd ./build/dependencies
zip -qrm . ../dependencies.zip
Run Code Online (Sandbox Code Playgroud)

这有效地压缩了在根级别使用的所需包中的所有代码.

在此输入图像描述

在我,main.py我可以导入依赖项

if os.path.exists('dependencies.zip'):
    sys.path.insert(0, 'dependencies.zip')
Run Code Online (Sandbox Code Playgroud)

并将.zip添加到我的Spark上下文中

sc.addPyFile('dependencies.zip')
Run Code Online (Sandbox Code Playgroud)

到现在为止还挺好.

但出于某种原因,这将在Spark Cluster上转移到某种依赖地狱

比如跑步

spark-submit --py-files dependencies.zip main.py

main.py(或类)我想要使用熊猫的地方.它将触发此错误的代码:

Traceback(最近一次调用最后一次):

在job_module = importlib.import_module('spark.jobs.%s'%args.job_name)中输入文件"/Users/tomlous/Development/Python/enrichers/build/main.py",第53行...

文件"",第978行,在_gcd_import中

文件"",第961行,在_find_and_load中

文件"",第950行,在_find_and_load_unlocked中

文件"",第646行,在_load_unlocked中

文件"",第616行,在_load_backward_compatible中

文件"dependencies.zip/spark/jobs/classify_existence.py",第9行,in

文件"dependencies.zip/enrich/existence.py",第3行,in

文件"dependencies.zip/pandas/ 初始化 py"为19行,在

ImportError:缺少必需的依赖项['numpy']

看着熊猫,__init__.py 我看到了类似的东西__import__(numpy)

所以我认为numpy没有加载.

但是,如果我改变我的代码以显式调用numpy函数,它实际上发现numpy,但不是它的一些dependecies

import numpy as np
a = np.array([1, 2, 3])
Run Code Online (Sandbox Code Playgroud)

代码返回

Traceback(最近一次调用最后一次):

文件"dependencies.zip/numpy/core/ 初始化的.py",第16行,在

ImportError:无法导入名称'multiarray'

所以我的问题是:

我应该如何将python3库与我的spark作业捆绑在一起,以便我不必在Spark集群上安装所有可能的库?

dev*_*ost 5

更新:有一个有凝聚力的 repo,其中包含一个非常出色的示例项目。你应该看看,特别是如果我下面的例子对你不起作用。存储库在这里:https : //github.com/massmutual/sample-pyspark-application 并包含在 YARN 上运行的示例:https : //github.com/massmutual/sample-pyspark-application/blob/master/setup -and-submit.sh 期望您首先导出几个环境变量。(我提供的值特定于 EMR,因此您的值可能会有所不同。)

export HADOOP_CONF_DIR="/etc/hadoop/conf"
export PYTHON="/usr/bin/python3"
export SPARK_HOME="/usr/lib/spark"
export PATH="$SPARK_HOME/bin:$PATH"
Run Code Online (Sandbox Code Playgroud)

正如这里提到的:我似乎无法让 --py-files 在 Spark 上工作 ,有必要使用类似 virtualenv(或者 conda 可能工作)以避免遇到与 Python 包的 C 库编译相关的问题(例如 Numpy) 以某种方式依赖于底层硬件架构,由于依赖项和/或任务节点中的硬链接可能与主节点实例具有不同的硬件,因此无法成功移植到集群中的其他机器。

此处讨论了 --archives 和 --py-files 之间的一些差异:Shipping and using virtualenv in a pyspark job

我建议使用 --archives 和 virtualenv 来提供包含包依赖项的压缩文件,以避免我上面提到的一些问题。

例如,从 Amazon Elastic Map Reduce (EMR) 集群,当 ssh 进入主实例时,我能够成功地使用 spark-submit 从 virtualenv 环境中执行测试 python 脚本,如下所示:

pip-3.4 freeze | egrep -v sagemaker > requirements.txt
# Above line is just in case you want to port installed packages across environments.
virtualenv -p python3 spark_env3
virtualenv -p python3 --relocatable spark_env3
source spark_env3/bin/activate
sudo pip-3.4 install -U pandas boto3 findspark jaydebeapi
# Note that the above libraries weren't required for the test script, but I'm showing how you can add additional dependencies if needed.
sudo pip-3.4 install -r requirements.txt
# The above line is just to show how you can load from a requirements file if needed.
cd spark_env3
# We must cd into the directory before we zip it for Spark to find the resources. 
zip -r ../spark_env3_inside.zip *
# Be sure to cd back out after building the zip file. 
cd ..

PYSPARK_PYTHON=./spark_env3/bin/python3 spark-submit \ 
  --conf spark.yarn.appMasterEnv.PYSPARK_PYTHON=./spark_env3/bin/python3 \
  --master yarn-cluster \
  --archives /home/hadoop/spark_env3_inside.zip#spark_env3 \
  test_spark.py
Run Code Online (Sandbox Code Playgroud)

请注意,上面最后一行末尾附近的主题标签不是注释。这是 spark-submit 的指令,如下所述:使用纱线上 spark-submit 的 --archives 选项上传 zip 文件

我正在运行的测试脚本的来源来自这篇关于使用 conda 而不是 virtualenv 来运行 pyspark 作业的文章:http ://quasiben.github.io/blog/2016/4/15/conda-spark/

并包含 test_spark.py 脚本的以下代码:

# test_spark.py
import os
import sys
from pyspark import SparkContext
from pyspark import SparkConf

conf = SparkConf()
conf.setAppName("get-hosts")

sc = SparkContext(conf=conf)

def noop(x):
    import socket
    import sys
    return socket.gethostname() + ' '.join(sys.path) + ' '.join(os.environ)

rdd = sc.parallelize(range(1000), 100)
hosts = rdd.map(noop).distinct().collect()
print(hosts)
Run Code Online (Sandbox Code Playgroud)

如果您想要一些关于使用 virtualenv 执行 pyspark 作业的背景信息,正如@Mariusz 已经提到的,这篇博文中有一个有用的例子:https ://henning.kropponline.de/2016/09/17/running-pyspark -with-virtualenv/(虽然它没有解释我用我提供的其他链接澄清的一些微妙之处)。

这里提供的回答帖子中还有一个额外的例子:Elephas not loaded in PySpark: No module named elephas.spark_model

这里还有另一个示例:https : //community.hortonworks.com/articles/104947/using-virtualenv-with-pyspark.html