配置执行程序内存和每个Worker节点的执行程序数

停留

如何在Spark集群中配置执行器的内存。另外,如何配置每个工作程序节点的执行程序数?

有什么方法可以知道有多少执行者的内存可以自由缓存或保留新的RDD。

0x0FFF

配置Spark执行程序内存-提交作业时使用参数spark.executor.memory或键--executor-memory

配置每个节点的执行程序数量取决于用于Spark的调度程序。如果使用YARN和Mesos,则无法对此进行控制,您只需设置执行程序的数量即可。如果是Spark Standalone集群,则可以调整SPARK_WORKER_INSTANCES参数

您可以在Spark驱动程序的WebUI中检查可用内存量。请参阅此处如何设置Apache Spark执行器内存,以了解为什么它不等于您设置的执行器总内存

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

执行程序内存和本地部署

来自分类Dev

调整Spark:可用核心不均时,每个节点的执行程序数量

来自分类Dev

如何设置Spark执行程序的内存?

来自分类Dev

从BackgroundTask执行程序

来自分类Dev

从BackgroundTask执行程序

来自分类Dev

Shell执行程序和管道

来自分类Dev

PDFTK和PHP执行程序

来自分类Dev

使用Groovy设置Jenkins中的执行程序数量

来自分类Dev

如何在Spark中处理执行程序内存和驱动程序内存?

来自分类Dev

执行程序与Jsoup递归

来自分类Dev

登录时执行程序

来自分类Dev

使用“ Runas”执行程序

来自分类Dev

Shell如何执行程序?

来自分类Dev

循环重复执行程序

来自分类Dev

执行程序与Jsoup递归

来自分类Dev

shebang如何执行程序?

来自分类Dev

Jenkins在配置期间(和访问工作空间)在作业的执行程序上执行shell

来自分类Dev

Azure功能:内存不足,无法继续执行程序

来自分类Dev

节点Webkit-可执行程序名称

来自分类Dev

YARN上的Spark:执行程序内存少于通过spark-submit设置的执行程序内存

来自分类Dev

执行程序并杀死程序时的信号和中断

来自分类Dev

如何加载每个Spark执行程序无法腌制的数据?

来自分类Dev

如何执行程序执行检查

来自分类Dev

PySpark:设置执行程序/内核和内存本地计算机

来自分类Dev

从Chrome扩展程序执行程序

来自分类Dev

从.dll执行程序程序集获取

来自分类Dev

任务计划程序未执行程序

来自分类Dev

从C程序构建可执行程序

来自分类Dev

从.dll执行程序程序集获取