Jam*_*mes 7 apache-spark google-cloud-platform google-cloud-dataproc
出于某种原因,我想安装与Google Cloud Dataproc上提供的版本不同的Apache Spark版本。如何安装 Spark 的自定义版本,同时保持与 Cloud Dataproc 工具的兼容性?
一般来说,您应该能够在 Dataproc 上安装 Spark 的自定义版本,并保持与 Cloud Dataproc 工具(主要是 Cloud Dataproc 作业)的兼容性。
为此,您应该:
/usr/local/lib/spark或/opt/spark代替用户主目录.bashrcapt-get remove/usr/local/bin/spark-submit(Cloud Dataproc 作业 API 需要此链接才能与新的 Spark 安装配合使用)/etc/spark/confCloud Dataproc 提供的| 归档时间: |
|
| 查看次数: |
618 次 |
| 最近记录: |