Flink CheckPoint
Checkpoint
Flink 容错机制的核心就是持续创建分布式数据流及其状态的一致快照。Flink的checkpoint 是通过分布式快照实现的,所以在flink中这两个词是一个意思。
- checkpoint用来保证任务的错误恢复。任务失败可以从最新的checkpoint恢复。
- checkpoint机制需要一个可靠的可以回放数据的数据源(kafka,RabbitMQ,HDFS…)和一个存放state的持久存储(HDFS,S3…)。
1,checkpointConfig
-
通过调用StreamExecutionEnvironment.enableCheckpointing(internal,mode)启用checkpoint。 internal默认是-1,表示checkpoint不开启,mode默认是EXACTLY_ONCE模式。
-
可设置checkpoint timeout,超过这个时间checkpoint没有成功,checkpoint终止。默认10分钟。
-
可设置checkpoint失败任务是否也失败,默认是true。
-
可设置同时进行的checkpoint数量,默认为1。
2,barrier
- 将barrier插入到数据流中,作为数据流的一部分和数据一起向下流动。Barrier 不会干扰正常数据,数据流严格有序。一个 barrier 把数据流分割成两部分:一部分进入到当前快照,另一部分进入下一个快照。每一个 barrier 都带有快照 ID,并且 barrier 之前的数据都进入了此快照。Barrier 不会干扰数据流处理,所以非常轻量。多个不同快照的多个 barrier 会在流中同时出现,即多个快照可能同时创建。
- Barrier 在数据源端插入,当 snapshot n 的 barrier 插入后,系统会记录当前 snapshot 位置值 n (用Sn表示)。例如,在 Apache Kafka 中,这个变量表示某个分区中最后一条数据的偏移量。这个位置值 Sn 会被发送到一个称为 checkpoint coordinator 的模块。
- 然后 barrier 继续往下流动,当一个 operator 从其输入流接收到所有标识 snapshot n 的 barrier 时,它会向其所有输出流插入一个标识 snapshot n 的 barrier。当 sink operator (DAG 流的终点)从其输入流接收到所有 barrier n 时,它向 the checkpoint coordinator 确认 snapshot n 已完成。当所有 sink 都确认了这个快照,快照就被标识为完成。
3,如何触发checkpoint?
- 在生成EcecutionGraph过程中会注册状态监听器CheckpointCoordinatorDeActivator,负责监听job状态,job变为运行状态时,执行startCheckpointScheduler方法定时执行ScheduledTrigger,ScheduledTrigger中执行的是triggerCheckpoint方法。
- 在进行一些条件检查之后,首先会构造出一个PendingCheckpoint实例,然后再放到队列里,只有当jobmanager收到SinkTask发来的checkpoint保存成功的消息后,这个PendingCheckpoint才会变成CompletedCheckpoint,这才代表一次checkpoint保存操作真正的完成了。
final PendingCheckpoint checkpoint =
new PendingCheckpoint(
job,
checkpointID,
timestamp,
ackTasks,
props,
checkpointStorageLocation,
executor);
if (statsTracker != null) {
PendingCheckpointStats callback = statsTracker.reportPendingCheckpoint(
checkpointID,
timestamp,
props);
checkpoint.setStatsCallback(callback);
}
再往下看,最重要的方法是向executions发送保存checkpoint的消息,通知taskmanager进行本地的checkpoint保存。
// send the messages to the tasks th