Man*_*jan 7 apache-spark apache-spark-sql pyspark
假设一个以集群模式运行的spark作业以集群模式启动3个执行程序,那么如何获取spark集群中每个执行程序进程的进程ID(PID)?pyspark中有这方面的api吗?
编辑:问题是关于执行器jvm进程ID(PID)而不是执行器ID。那么如何使用 pyspark API 获取执行程序进程 id?
归档时间: |
|
查看次数: |
2000 次 |
最近记录: |