如何在pyspark中获取spark执行器进程PID

Man*_*jan 7 apache-spark apache-spark-sql pyspark

假设一个以集群模式运行的spark作业以集群模式启动3个执行程序,那么如何获取spark集群中每个执行程序进程的进程ID(PID)?pyspark中有这方面的api吗?

编辑:问题是关于执行器jvm进程ID(PID)而不是执行器ID。那么如何使用 pyspark API 获取执行程序进程 id?