小编Jam*_*s k的帖子

什么控制给应用程序提供了多少Spark Cluster?

在用于静态分区的文档https://spark.apache.org/docs/latest/job-scheduling.html的这个页面中,它说"通过这种方法,每个应用程序都可以使用最多的资源".

我只是想知道,这些最大的资源是什么?我找到了每个执行程序设置的内存(在动态分区中刚才提到),我假设限制了应用程序获得的内存资源.但是,决定启动了多少个执行程序/使用了多少个集群节点,例如总集群内存和被"获取"的内核?

在另一个类似的说明是有一种方法来改变每个工作或任务级别要求的内存?

resources apache-spark

9
推荐指数
1
解决办法
3395
查看次数

标签 统计

apache-spark ×1

resources ×1