Ade*_*nde 3 scala apache-spark apache-spark-sql
我想知道 Spark 执行器内存是否有大小限制?
考虑运行一个糟糕的工作来进行收集、联合、计数等的情况。
只是一点背景信息,假设我有这些资源(2 台机器)
Cores: 40 cores, Total = 80 cores
Memory: 156G, Total = 312
Run Code Online (Sandbox Code Playgroud)
更大和更小的执行者有什么建议?
| 归档时间: |
|
| 查看次数: |
4903 次 |
| 最近记录: |