Flink学习02 - Flink运行架构

Flink运行架构详解:组件、流程与调度
本文深入解析Flink的作业管理器、任务管理器、资源管理器和分发器,介绍任务提交流程、并行计算原理,探讨并行度、TaskManager与Slots的分配,以及数据流和执行图的构建。理解OperatorChains优化和任务链概念,是Flink开发者必备知识点。

学习资料

尚硅谷2021最新Java版Flink(武老师清华硕士,原IBM-CDL负责人)
我的flink练习代码地址(github)

Flink运行架构

一、Flink运行时的组件

在这里插入图片描述

作业管理器(JobManager)

  • 控制一个应用程序执行的主进程,也就是说,每个应用程序都会被一个不同的JobManager所控制执行。
  • JobManager会先接收到要执行的应用程序,这个应用程序会包括:作业图(JobGraph)、逻辑数据流图(logical dataflow graph)和打包了所有的类、库和其他资源的JAR包。
  • JobManager会把JobGraph转换成一个物理层面的数据流图,这个图被叫做“执行图”(ExecutionGraph),包含了所有可以并发执行的任务。
  • JobManager会向资源管理器(ResourceManager)请求执行任务必要的资源,也就是任务管理器(TaskManager)上的插槽(slot)。一旦它获取到了足够的资源,就会将执行图分发到真正运行它们的TaskManager上。而在运行过程中,JobManger会负责所有需要中央协调的操作,比如说检查点(checkpoints)的协调。

任务管理器(TaskManager)

  • Flink中的工作进程。通常在Flink中会有多个TaskManager运行,每一个TaskManager都包含了一定数量的插槽(slots)。插槽的数量限制了TaskManager能够执行的任务数量。
  • 启动之后,TaskManager会向资源管理器注册它的插槽;收到资源管理器的指令后,TaskManager就会将一个或者多个插槽提供给 JobManager调用。JobManager就可以向插槽分配任务(tasks)来执行了。
  • 在执行过程中,一个TaskManager可以跟其它运行同一应用程序的TaskManager交换数据。

资源管理器(ResourceManager)

  • 主要负责管理任务管理器(TaskManager)的插槽(slot), TaskManger 插槽是Flink中定义的处理资源单元。

  • Flink为不同的环境和资源管理工具提供了不同资源管理器,比如YARN、 Mesos、K8s,以及standalone部署。

  • 当JobManager申请插槽资源时,ResourceManager会将有空闲插槽的 TaskManager分配给JobManager。如果ResourceManager没有足够的 插槽来满足JobManager的请求,它还可以向资源提供平台发起会话, 以提供启动TaskManager进程的容器。

分发器(Dispatcher)

  • 可以跨作业运行,它为应用提交提供了REST接口。

  • 当一个应用被提交执行时,分发器就会启动并将应用移交给一个 JobManager。

  • Dispatcher也会启动一个Web UI,用来方便地展示和监控作业执行的信息。

  • Dispatcher在架构中可能并不是必需的,这取决于应用提交运行的方式。

二、任务提交流程

在这里插入图片描述

  • 任务提交流程(YARN)

在这里插入图片描述

三、任务调度原理

在这里插入图片描述

思考:

  • 怎样实现并行计算?
    • 不同的slot,相当于不同的线程,同时计算 ——> 并行计算
  • 并行的任务,需要占用多少slot?
    • 占用slot个数 与 当前任务最大并行度有关
  • 一个流处理程序,到底包含多少个任务?
    • 任务合并

并行度(Parallelism)

在这里插入图片描述

一个特定算子的 子任务(subtask)的个数被称之为其并行度(parallelism)。 一般情况下,一个 stream 的并行度,可以认为就是其所有算子中最大的并行度

TaskManger 与 Slots

在这里插入图片描述

  • Flink 中每一个 worker(TaskManager)都是一个 JVM进程,它可能会在独立的线程上执行一个或多个 subtask。
  • 为了控制一个 worker 能接收多少个 task,worker 通过 task slot 来进行控制(一个 worker 至少有一个 task slot)。
  • 每个 task slot 表示 TaskManager 拥有资源的一个固定大小的子集

在这里插入图片描述

  • 默认情况下,Flink 允许子任务共享 slot,即使它们是不同任务的子任务。这样的结果是,一个 slot 可以保存作业的整个管道。
  • Task Slot 是静态的概念,是指 TaskManager 具有的并发执行能力

并行子任务的分配

在这里插入图片描述

在这里插入图片描述

程序与数据流(DataFlow)

在这里插入图片描述

  • 所有的Flink程序都是由三部分组成的: Source 、Transformation 和 Sink。

  • Source 负责读取数据源,Transformation 利用各种算子进行处理加工,Sink 负责输出

  • 在运行时,Flink上运行的程序会被映射成“逻辑数据流”(dataflows),它包含了这三部分

  • 每一个dataflow以一个或多个sources开始一个或多个sinks结束。dataflow类似于任意的有向无环图(DAG)

  • 在大部分情况下,程序中的转换运算(transformations)跟dataflow中的算子(operator)是一一对应的关系

执行图(ExecutionGraph)

  • Flink 中的执行图可以分成四层:StreamGraph -> JobGraph -> ExecutionGraph -> 物理执行图
    • StreamGraph:是根据用户通过 Stream API 编写的代码生成的最初的图。用来表示程序的拓扑结构。
    • JobGraph:StreamGraph经过优化后生成了 JobGraph,提交给 JobManager 的数据结构。主要的优化为,将多个符合条件的节点 chain 在一起作为一个节点
    • ExecutionGraph:JobManager 根据 JobGraph 生成ExecutionGraph。 ExecutionGraph是JobGraph的并行化版本,是调度层最核心的数据结构。
    • 物理执行图:JobManager 根据 ExecutionGraph 对 Job 进行调度后,在各个TaskManager 上部署 Task 后形成的“图”,并不是一个具体的数据结构。

在这里插入图片描述

数据传输形式

  • 一个程序中,不同的算子可能具有不同的并行度

  • 算子之间传输数据的形式可以是 one-to-one (forwarding) 的模式也可以是 redistributing 的模式,具体是哪一种形式,取决于算子的种类

    • One-to-one:stream维护着分区以及元素的顺序(比如source和map之间)。 这意味着map 算子的子任务看到的元素的个数以及顺序跟 source 算子的子任务生产的元素的个数、顺序相同。map、fliter、flatMap等算子都是one-to-one的对应关系。
    • Redistributing:stream的分区会发生改变。每一个算子的子任务依据所选择的transformation发送数据到不同的目标任务。例如,keyBy 基于 hashCode 重分区、而 broadcast 和 rebalance 会随机重新分区,这些算子都会引起redistribute过程,而 redistribute 过程就类似于 Spark 中的 shuffle (完全随机)过程。

任务链(Operator Chains)

  • Flink 采用了一种称为任务链的优化技术,可以在特定条件下减少本地通信的开销。为了满足任务链的要求,必须将两个或多个算子设为相同的并行度,并通过本地转发(local forward)的方式进行连接

  • 相同并行度one-to-one 操作,Flink 这样相连的算子链接在一起形成一个 task,原来的算子成为里面的 subtask

  • 并行度相同、并且是 one-to-one 操作,两个条件缺一不可

在这里插入图片描述

// 全局禁止任务合并
env.disableOperatorChaining();
### 关于Flink 1.3.6 和 Flink-CDC 2.2 的集成与兼容性 对于 Flink 1.3.6 版本而言,其属于较早版本的 Apache Flink,在功能支持以及与其他工具的集成方面存在一定的局限性。具体到 Flink-CDC 2.2 集成时,需要注意以下几点: #### 1. **Flink CDC 的最低版本需求** Flink-CDC 是一个用于捕获变更数据并将其流式传输至下游系统的框架。然而,Flink-CDC 2.x 系列通常依赖更高版本的 Flink 运行环境(通常是 Flink 1.10 或以上)。由于 Flink 1.3.6 属于早期版本,可能无法满足 Flink-CDC 所需的核心库接口和 API 支持的要求[^2]。 #### 2. **Java SDK 兼容性问题** 正如提到的 Hadoop-JDK 兼容性矩阵所示,不同 Java 版本可能会引入不向后兼容的变化。如果运行环境中使用的 JDK 版本较高,则可能导致某些内部机制失效。因此,在尝试将 Flink 1.3.6 与 Flink-CDC 2.2 结合使用之前,应确认所选 JDK 是否能够适配这两个组件的需求[^1]。 #### 3. **API 差异引发的功能缺失** Flink 1.3.6 中的数据源定义方式、状态管理策略以及其他核心特性相较于后续版本有显著差异。而这些变化直接影响到了像 Flink-CDC 这样基于最新版设计开发的应用程序能否正常工作。例如,Flink-CDC 可能会利用 Table/SQL 接口来简化配置流程,但在旧版本中该部分尚未完善[^3]。 ```java // 示例代码展示如何通过Table API设置CDC连接器(仅适用于新版本) tableEnv.executeSql(""" CREATE TABLE mysql_binlog ( id BIGINT, name STRING, age INT, proc_time AS PROCTIME() ) WITH ( 'connector' = 'mysql-cdc', 'hostname' = 'localhost', 'port' = '3306', 'username' = 'root', 'password' = '', 'database-name' = 'test_db', 'table-name' = 'users' ) """); ``` 上述代码片段展示了现代 Flink 使用 MySQL Binlog Connector 设置表的方式,但此方法并不适合应用于非常老旧如 v1.3.x 的发行版上[^4]。 --- ### 总结建议 鉴于当前情况,强烈推荐升级基础架构中的主要软件包——即把 Flink 升级到至少 1.10+ 后再考虑接入最新的 Flink-CDC 功能模块。这样不仅可以获得更好的性能表现还能规避因跨代组合带来的潜在风险。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值