小编Ant*_*man的帖子

Pyspark驱动程序中Python子进程的内存分配

在PySpark驱动程序中创建新的Python进程时(例如,使用JobLib或其他多处理库),这些进程是否共享Spark驱动程序内存,或者它们在该PySpark驱动程序JVM之外分配了内存?

python apache-spark pyspark

1
推荐指数
1
解决办法
177
查看次数

标签 统计

apache-spark ×1

pyspark ×1

python ×1