Dou*_*cks 7 memory hadoop-yarn apache-spark pyspark
此图非常清楚不同的YARN和Spark内存相关设置之间的关系,除非它涉及到spark.python.worker.memory
.
如何spark.python.worker.memory
适应这种记忆模型?
是Python的过程管辖spark.executor.memory
或yarn.nodemanager.resource.memory-mb
?
更新
此问题解释了设置的作用,但没有回答有关内存管理的问题,或者它与其他内存设置的关系.
归档时间: |
|
查看次数: |
2615 次 |
最近记录: |