For*_*ato 8 hadoop-yarn apache-spark
我正在尝试加入两个大型spark数据帧,并继续遇到此错误:
Container killed by YARN for exceeding memory limits. 24 GB of 22 GB physical memory used. Consider boosting spark.yarn.executor.memoryOverhead.
这似乎是spark用户之间的常见问题,但我似乎找不到关于spark.yarn.executor.memoryOverheard是什么的任何可靠描述。在某些情况下,这听起来像是在YARN杀死容器之前是一种内存缓冲区(例如,请求10GB,但YARN直到使用10.2GB时才会杀死容器)。在其他情况下,听起来好像它被用来执行某种与我要执行的分析完全分离的数据记帐任务。我的问题是:
归档时间: |
|
查看次数: |
3251 次 |
最近记录: |