假设我正在用yarn-client模式提交一个Spark应用程序。在Spark提交中,我将--num-executors传递为10。当客户将此Spark应用程序提交给resourceManager时,
资源管理器是否会从--num-executors(10)中为应用程序主进程分配一个执行器容器,而其余的9将为实际执行器提供?
要么
它是为应用程序主服务器分配一个新的容器,还是仅为执行者分配10个容器?
--num-executors
是从集群管理器(也可以是Hadoop YARN)中请求执行者的数量。这是Spark的要求。
(YARN应用程序的)应用程序主控只是YARN的事情。
Spark应用程序也可能是YARN应用程序。在这种情况下,Spark应用程序将为AM获得10个容器和一个额外的容器。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句