相关疑难解决方法(0)

了解 spark.yarn.executor.memoryOverhead

当我在纱线上运行 spark 应用程序时,驱动程序和执行程序内存设置为 --driver-memory 4G --executor-memory 2G

然后当我运行应用程序时,会抛出一个异常,抱怨说 Container killed by YARN for exceeding memory limits. 2.5 GB of 2.5 GB physical memory used. Consider boosting spark.yarn.executor.memoryOverhead.

这个 2.5 GB 在这里是什么意思?(开销内存、执行程序内存或开销+执行程序内存?)我这么问是因为当我将内存设置更改为:

--driver-memory 4G --executor-memory 4G --conf --driver-memory 4G --conf spark.yarn.executor.memoryOverhead=2048,然后异常消失。

我想问一下,虽然我把开销内存提升到了2G,但它仍然在2.5G以下,为什么现在可以工作了?

apache-spark

2
推荐指数
1
解决办法
7486
查看次数

标签 统计

apache-spark ×1