use*_*688 8 apache-spark pyspark
为 Python 工作节点设置 sys 路径的“正确”方法是什么?
工作节点从主节点“继承”系统路径是个好主意吗?
在工作节点中设置路径是个好主意.bashrc吗?或者是否有一些标准的 Spark 设置方式?
设置环境变量(包括 )的标准方法PYSPARK_PYTHON是使用conf/spark-env.shfile. Spark 带有一个模板文件 ( conf/spark-env.sh.template),它解释了最常见的选项。
这是一个普通的 bash 脚本,因此您可以像使用它一样使用它 .bashrc
您将在Spark 配置指南 中找到更多详细信息。
| 归档时间: |
|
| 查看次数: |
29264 次 |
| 最近记录: |