Debezium系列- snapshot锁表流程详解

背景

采用Debezium 同步MySQL表的时候,同一张表有时候有时会锁表,有时不会锁表。为了弄清楚原因梳理了snapshot的流程

snapshot 流程图

在这里插入图片描述

如何排查Debezium锁问题引起的主从延迟?

谁持有的锁?继续查询information_schema.innodb_locks、innodb_lock_waits、innodb_trx表

select * from information_schema.innodb_locks;
select * from information_schema.innodb_lock_waits;
select * from information_schema.innodb_trx;

发现三个表均为空,不要慌继续,performance_schema.metadata_locks表来排查谁持有全局读锁。全局读锁在该表中通常记录着同一个会话的OBJECT_TYPE为global和commit、LOCK_TYPE都为SHARED的两把显式锁。

select * from performance_schema.metadata_locks where OWNER_THREAD_ID!=sys.ps_thread_id(connection_id());

在这里插入图片描述
可以看到有两个 LOCK_TYPE: SHARED(共享锁) 和一个 LOCK_TYPE: INTENTION_EXCLUSIVE(意向排它锁)
LOCK_DURATION: EXPLICIT 显示的
LOCK_STATUS: GRANTED 已授予
LOCK_STATUS: PENDING 正在等待被授予
404 这个内部进程阻塞了后面的操作

SELECT B.*,C.OWNER_THREAD_ID,C.OBJECT_TYPE,C.LOCK_TYPE,C.LOCK_DURATION,C.LOCK_STATUS 
FROM performance_schema.threads A,information_schema.PROCESSLIST B,performance_schema.metadata_locks C
WHERE A.PROCESSLIST_ID = B.ID
AND A.THREAD_ID = C.OWNER_THREAD_ID
AND C.OWNER_THREAD_ID = 404

在这里插入图片描述

解决方案

方案一
根据找到的 user ,host ,db 等信息,找相关人员问清楚,让执行解锁 unlock tables
方案二
确认没问题后进行暴力破解法 KILL , 然后 unlock tables

Debezium snapshot 问题分析

示例:
有时候Debezium 在 snapshot拿不到锁的原因

操作:执行大查询->FLUSH TABLES WITH READ LOCK [FLUSH TABLES ${table} WITH READ LOCK]
结果:FLUSH TABLES WITH READ LOCK 被阻塞
在这里插入图片描述

这种情况,如果大查询没有查询完 FLUSH TABLES WITH READ LOCK 是获取不到锁的,Debezium 在 snapshot的时候拿 flush table 有超时时间,如果超过时间还未执行,Debezium就会人会获取不到全局读锁,这时候走表锁逻辑。准确来说只要FLUSH TABLES WITH READ LOCK 长时间被阻塞,都会引起snapshot获取不到锁。执行DDL语句 和 执行DML大事务(DML语句正在执行,数据正在发生修改,而不是使用lock in share mode和for update语句来显式加锁)都会堵塞

示例2:
操作:FLUSH TABLES WITH READ LOCK [FLUSH TABLES ${table} WITH READ LOCK] ->执行 insert
结果:insert 被阻塞
图片: https://uploader.shimo.im/f/kQs3SjlK4feZUEKa.png

这种情况,insert 被阻塞直到执行 UNLOCK TABLES; 表被锁引起主从延迟。

如何避免因为锁问题导致主从延迟问题

方案一:
修改源码获取不到锁快速失败任务。
方案二:
snapshot.lock.timeout.ms 配置一个超大值

参考文章

<think>好的,用户想了解Flink CDC的相关信息和使用方法,特别是使用教程和原理介绍。我需要根据提供的引用资料来组织回答。首先,我需要明确Flink CDC的定义和作用。根据引用[1],Flink CDC是用于数据捕获和实时数据同步的工具,基于Flink的流处理能力。接下来,原理部分需要解释它的工作机制,比如连接器和Debezium的关系,以及Flink的处理流程。引用[2]和[3]提到了Flink CDC的版本演变和开源地址,这里需要说明不同版本的区别,特别是2.x和3.x的改进,如无算法和并行读取。 然后,使用教程部分要分步骤说明环境准备、依赖配置、代码示例等。引用[4]提到使用SQL CLI进行操作,可以给出SQL示例。同时,用户可能需要代码示例,比如如何定义MySQL,这里要确保语法正确,使用$$...$$格式。注意事项部分要包括版本兼容性、性能调优等,引用[1]中的Debezium格式和引用[3]中的项目地址可以作为补充。 最后生成相关问题,覆盖应用场景、优化方法、与其他工具对比等。检查是否符合系统级指令,比如行内公式是否正确,独立公式是否单独成段,引用标识是否添加。确保回答结构清晰,分点说明,并正确引用相关资料。需要注意用户可能对Flink CDC的具体实现细节和实际应用感兴趣,所以需要详细说明原理和使用步骤,同时提供实际代码示例帮助理解。</think>### Flink CDC 原理与使用详解 #### 一、核心概念 1. **CDC 定义**:变更数据捕获(Change Data Capture)技术用于捕捉数据库的增删改操作,实现实时数据同步[^1] 2. **Flink CDC 定位**:基于 Apache Flink 构建的实时数据集成工具,支持全量+增量数据同步,兼容多种数据库[^3] #### 二、技术原理 1. **架构组成**: - 基于 Debezium 引擎捕获数据库变更日志 - 通过 Flink 流处理引擎实现数据转换与分发 - 支持 MySQL、PostgreSQL、Oracle 等常见数据库 2. **核心机制**: ```mermaid graph LR DB[(数据库)] -->|Binlog| Debezium Debezium -->|CDC Events| Flink Flink -->|处理后的数据| Sink[(目标系统)] ``` 3. **版本演进**: - 1.x:单并行度读取,全量阶段 - 2.x:支持并行读取,无算法(parallel snapshot- 3.x:增强 Exactly-Once 语义,优化内存管理 #### 三、使用教程 **步骤1:环境准备** ```sql -- 创建 MySQL(使用 Flink SQL) CREATE TABLE mysql_source ( id INT, name STRING, PRIMARY KEY(id) NOT ENFORCED ) WITH ( 'connector' = 'mysql-cdc', 'hostname' = 'localhost', 'port' = '3306', 'username' = 'root', 'password' = '123456', 'database-name' = 'test_db', 'table-name' = 'user_table' ); ``` [^4] **步骤2:数据消费** ```sql -- 创建 Kafka 目标 CREATE TABLE kafka_sink ( user_id INT, user_name STRING ) WITH ( 'connector' = 'kafka', 'topic' = 'user_events', 'properties.bootstrap.servers' = 'localhost:9092', 'format' = 'json' ); -- 数据管道 INSERT INTO kafka_sink SELECT id AS user_id, name AS user_name FROM mysql_source; ``` #### 四、注意事项 1. **版本兼容性**:Flink 1.13+ 推荐使用 CDC 2.x 版本[^2] 2. **性能调优**: - 调整`server-id`范围避免冲突 - 合理设置`chunk-size`(默认8096) - 启用`parallelism`进行并行读取 3. **数据格式**:采用 Debezium 标准 JSON 格式,包含以下字段: ```json { "before": {...}, "after": {...}, "source": {...}, "op": "c/u/d", "ts_ms": 1629789287100 } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值