Met*_*est 6 java hadoop scala hadoop-yarn apache-spark
是否可以在Spark中在运行时更改执行程序内存的值?我想这样做的原因是,对于某些地图任务,我希望纱线调度程序将每个任务放在一个单独的节点上.通过将执行程序内存增加到接近节点的总内存,我确保它们分布在每个节点上.后来,我想为每个节点运行几个任务,所以我会为它们降低执行程序内存.
| 归档时间: |
|
| 查看次数: |
747 次 |
| 最近记录: |