Spark/YARN允许多线程吗?

Nic*_*aro 7 multithreading hadoop-yarn apache-spark

由于YARN负责管理Hadoop应用程序(如内核和进程)的资源,是否允许YARN应用程序创建新线程?

我主要指的是在YARN资源管理器上运行的Spark应用程序.我知道如果你创建一个新线程没有抛出错误,但它是否安全?

Nic*_*aro 7

我回复自己.YARN控制内存和内核等资源,而不是线程.通过在创建容器时更改操作系统特定参数来控制核心(进程关联).然后,JVM使用指定数量的内核运行,您可以根据需要创建任意数量的线程.