Spark 集群模式概述点击这里看全文
目录
1. 组件
Spark应用程序作为一组独立的进程在集群上运行,由主程序中的SparkContext对象(称为驱动程序)协调。
具体来说,要在集群上运行,SparkContext可以连接到几种类型的集群管理器(包括Spark自己的独立集群管理器、Mesos、YARN或Kubernetes),这些管理器在应用程序之间分配资源。一旦连接成功,Spark会在集群中的节点上获取执行器,执行器是运行计算并存储应用程序数据的进程。然后,它将应用程序代码(由传递给SparkContext的JAR或Python文件定义)发送给执行器。最后,SparkContext将任务发送给执行器以运行。
Spark集群组件
有关这个架构,有几个

本文概述了Spark在集群上的运行方式,介绍了其组件、集群管理器类型、提交应用程序的方法、监控手段以及作业调度。Spark应用程序通过SparkContext与集群管理器交互,获取执行器进程来运行计算。支持的集群管理器包括独立模式、Mesos、YARN和Kubernetes。提交应用使用spark-submit脚本,并提供了Web UI进行监控。作业调度则允许对资源分配进行精细化控制。
最低0.47元/天 解锁文章
401

被折叠的 条评论
为什么被折叠?



