YARN基本组成结构

本文介绍了Hadoop 2.0中的资源管理系统YARN的基本架构。详细阐述了YARN的组成结构,包括ResourceManager、NodeManager、ApplicationMaster及Container等功能组件及其职责,并概述了各组件间的通信协议。

转载自:http://book.51cto.com/art/201312/422026.htm

2.4 YARN 基本架构

YARN是Hadoop 2.0中的资源管理系统,它的基本设计思想是将MRv1中的JobTracker拆分成了两个独立的服务:一个全局的资源管理器ResourceManager和每个应用程序特有的ApplicationMaster。其中ResourceManager负责整个系统的资源管理和分配,而ApplicationMaster负责单个应用程序的管理。

2.4.1 YARN基本组成结构

YARN总体上仍然是Master/Slave结构,在整个资源管理框架中,ResourceManager为Master,NodeManager为Slave,ResourceManager负责对各个NodeManager上的资源进行统一管理和调度。当用户提交一个应用程序时,需要提供一个用以跟踪和管理这个程序的ApplicationMaster,它负责向ResourceManager申请资源,并要求NodeManger启动可以占用一定资源的任务。由于不同的ApplicationMaster被分布到不同的节点上,因此它们之间不会相互影响。在本小节中,我们将对YARN的基本组成结构进行介绍。

图2-9描述了YARN的基本组成结构,YARN主要由ResourceManager、NodeManager、ApplicationMaster(图中给出了MapReduce和MPI两种计算框架的ApplicationMaster,分别为MR AppMstr和MPI AppMstr)和Container等几个组件构成。

1. ResourceManager(RM)

RM是一个全局的资源管理器,负责整个系统的资源管理和分配。它主要由两个组件构成:调度器(Scheduler)和应用程序管理器(Applications Manager,ASM)。

(1) 调度器

调度器根据容量、队列等限制条件(如每个队列分配一定的资源,最多执行一定数量的作业等),将系统中的资源分配给各个正在运行的应用程序。需要注意的是,该调度器是一个“纯调度器”,它不再从事任何与具体应用程序相关的工作,比如不负责监控或者跟踪应用的执行状态等,也不负责重新启动因应用执行失败或者硬件故障而产生的失败任务,这些均交由应用程序相关的ApplicationMaster完成。调度器仅根据各个应用程序的资源需求进行资源分配,而资源分配单位用一个抽象概念“资源容器”(Resource Container,简称Container)表示,Container是一个动态资源分配单位,它将内存、CPU、磁盘、网络等资源封装在一起,从而限定每个任务使用的资源量。此外,该调度器是一个可插拔的组件,用户可根据自己的需要设计新的调度器,YARN提供了多种直接可用的调度器,比如Fair Scheduler和Capacity Scheduler等。

(2) 应用程序管理器

应用程序管理器负责管理整个系统中所有应用程序,包括应用程序提交、与调度器协商资源以启动ApplicationMaster、监控ApplicationMaster运行状态并在失败时重新启动它等。

2. ApplicationMaster(AM)

用户提交的每个应用程序均包含一个AM,主要功能包括:

与RM调度器协商以获取资源(用Container表示);

将得到的任务进一步分配给内部的任务;

与NM通信以启动/停止任务;

监控所有任务运行状态,并在任务运行失败时重新为任务申请资源以重启任务。

当前YARN自带了两个AM实现,一个是用于演示AM编写方法的实例程序distributedshell,它可以申请一定数目的Container以并行运行一个Shell命令或者Shell脚本;另一个是运行MapReduce应用程序的AM—MRAppMaster,我们将在第8章对其进行介绍。此外,一些其他的计算框架对应的AM正在开发中,比如Open MPI、Spark等。

3. NodeManager(NM)

NM是每个节点上的资源和任务管理器,一方面,它会定时地向RM汇报本节点上的资源使用情况和各个Container的运行状态;另一方面,它接收并处理来自AM的Container启动/停止等各种请求。

4. Container

Container是YARN中的资源抽象,它封装了某个节点上的多维度资源,如内存、CPU、磁盘、网络等,当AM向RM申请资源时,RM为AM返回的资源便是用Container表示的。YARN会为每个任务分配一个Container,且该任务只能使用该Container中描述的资源。需要注意的是,Container不同于MRv1中的slot,它是一个动态资源划分单位,是根据应用程序的需求动态生成的。截至本书完成时,YARN仅支持CPU和内存两种资源,且使用了轻量级资源隔离机制Cgroups进行资源隔离。
 

2.4.2 YARN通信协议

RPC协议是连接各个组件的“大动脉”,了解不同组件之间的RPC协议有助于我们更深入地学习YARN框架。在YARN中,任何两个需相互通信的组件之间仅有一个RPC协议,而对于任何一个RPC协议,通信双方有一端是Client,另一端为Server,且Client总是主动连接Server的,因此,YARN实际上采用的是拉式(pull-based)通信模型。如图2-10所示,箭头指向的组件是RPC Server,而箭头尾部的组件是RPC Client,YARN主要由以下几个RPC协议组成:

JobClient(作业提交客户端)与RM之间的协议—ApplicationClientProtocol:JobClient通过该RPC协议提交应用程序、查询应用程序状态等。

Admin(管理员)与RM之间的通信协议—ResourceManagerAdministrationProtocol:Admin通过该RPC协议更新系统配置文件,比如节点黑白名单、用户队列权限等。

AM与RM之间的协议—ApplicationMasterProtocol:AM通过该RPC协议向RM注册和撤销自己,并为各个任务申请资源。

AM与NM之间的协议—ContainerManagementProtocol:AM通过该RPC要求NM启动或者停止Container,获取各个Container的使用状态等信息。

NM与RM之间的协议—ResourceTracker:NM通过该RPC协议向RM注册,并定时发送心跳信息汇报当前节点的资源使用情况和Container运行情况。

为了提高Hadoop的向后兼容性和不同版本之间的兼容性,YARN中的序列化框架采用了Google开源的Protocol Buffers。Protocol Buffers的引入使得YARN具有协议向后兼容性,相关内容将在第3章介绍。


### Apache Spark 架构设计与组件分析 Apache Spark 是一种高效的分布式计算框架,其架构设计旨在支持大规模数据处理和高性能计算需求。以下是对其基本设计和主要组件的深入分析: #### 1. 核心架构概述 Spark 的核心架构基于 **Master-Slave** 模型[^4],其中 Master 节点负责管理和调度整个集群的任务,而 Slave 节点则具体执行这些任务。这种设计允许 Spark 实现高并发性和可扩展性。 - **Driver Program**: 用户提交的应用程序会启动一个 Driver 进程,该进程充当应用的主要控制中心。它负责将用户的代码转化为一系列的操作,并将其分发到各个 Worker 节点上执行[^2]。 - **Cluster Manager (CM)**: 集群管理器是 Spark 中用于分配和管理资源的重要组成部分。它可以采用不同的实现方式,例如 Standalone、YARN、Mesos 或 Kubernetes 等[^5]。每种 CM 都有自己的优势,能够适应不同场景下的资源需求。 - **Executor Process**: 在每个 Worker 节点上都会运行多个 Executor 进程,它们接收来自 Driver 的指令并完成具体的计算工作。Executors 不仅承担实际的数据处理任务,还具备一定的内存管理和磁盘 I/O 功能以提高效率。 #### 2. 主要组件详解 ##### (1)Driver 和 SparkContext - **Driver**: 它相当于整个作业的生命线,在这里定义了所有的业务逻辑并将之转化成内部表示形式——DAG(Directed Acyclic Graph)[^4]。随后再进一步拆解成为 Stages 及 Tasks 来安排至 Executors 上运行。 - **SparkContext**: 此对象作为进入 Spark 生态系统的门户,提供了创建 RDDs(弹性分布式数据集)、广播变量以及其他必要工具的方法接口。 ##### (2)Resilient Distributed Datasets (RDDs) RDD 是 Spark 最基础也是最重要的抽象概念之一,代表着不可变的分区记录集合[^3]。开发者可以通过声明式的变换函数轻松构建复杂的流水线式操作链路,从而极大地简化了大数据应用场景中的编码难度。 ##### (3)Standalone Components 除了上述提到的基础单元外,还有几个独立但紧密关联的部分构成了完整的 Spark 平台生态系统: - **Spark Streaming**: 支持准实时流媒体数据分析的能力[^3]; - **MLlib**: 提供丰富的预置机器学习算法库以便快速搭建预测模型[^1]; - **GraphX**: 特殊针对图结构相关运算进行了高度优化[^3]; - **Spark SQL & DataFrames/Datasets API**: 让关系型查询变得更为直观便捷的同时也兼容 Hive 表格访问[^3]。 #### 结论 综上所述,Apache Spark 凭借灵活多样的模块组合以及强大稳健的技术底座赢得了广泛认可。无论是传统批处理还是新兴领域内的即时响应要求都能得到良好满足。 ```python from pyspark.sql import SparkSession # 初始化 Spark Session spark = SparkSession.builder \ .appName("Example") \ .getOrCreate() data = [("Alice", 1), ("Bob", 2)] df = spark.createDataFrame(data, ["name", "age"]) df.show() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值