Aug*_*sto 6 hadoop-yarn apache-spark
我正在运行一个管道来处理我在 Spark 上的数据。当我的 Executors 接近存储内存限制时,他们似乎时不时地死去。工作继续并最终完成,但这是正常行为吗?我应该做些什么来防止这种情况发生?每次发生这种情况时,作业都会挂起一段时间,直到(我在这里猜测)YARN 为作业提供了一些新的执行程序以继续。
| 归档时间: |
|
| 查看次数: |
3549 次 |
| 最近记录: |