为 Spark worker 设置 python 路径

use*_*688 8 apache-spark pyspark

为 Python 工作节点设置 sys 路径的“正确”方法是什么?

工作节点从主节点“继承”系统路径是个好主意吗?

在工作节点中设置路径是个好主意.bashrc吗?或者是否有一些标准的 Spark 设置方式?

zer*_*323 6

设置环境变量(包括 )的标准方法PYSPARK_PYTHON是使用conf/spark-env.shfile. Spark 带有一个模板文件 ( conf/spark-env.sh.template),它解释了最常见的选项。

这是一个普通的 bash 脚本,因此您可以像使用它一样使用它 .bashrc

您将在Spark 配置指南 中找到更多详细信息。