D. *_*ler 6 resource-management hadoop-yarn hortonworks-data-platform apache-spark
我在YARN集群(HDP 2.4)中使用Spark,具有以下设置:
当我使用命令运行我的spark应用程序时,spark-submit --num-executors 30 --executor-cores 3 --executor-memory 7g --driver-cores 1 --driver-memory 1800m ...YARN使用以下设置创建31个容器(每个执行程序进程一个+一个驱动程序进程):
我的问题是:为什么spark-submit参数--executor-cores 3没有效果?
| 归档时间: |
|
| 查看次数: |
4669 次 |
| 最近记录: |