在PySpark驱动程序中创建新的Python进程时(例如,使用JobLib或其他多处理库),这些进程是否共享Spark驱动程序内存,或者它们在该PySpark驱动程序JVM之外分配了内存?
python apache-spark pyspark
apache-spark ×1
pyspark ×1
python ×1