Debezium 捕获mysql的CDC数据并且写入kafka
环境准备:
- 环境中已有kafka的集群
- 环境中已有zookeeper集群
- Mysql安装完成,并且开启了binlog
软件准备:
原理:
kafka connect 利用 debezium mysql connector插件,监控Mysql的Binlog日志。将数据写入到kafka中。
部署过程
此处使用的是kafka connect standalone模式
解压安装 confluent community
tar -zxvf confluent-community-5.5.0-2.12.tar.gz
mv confluent-5.5.0 confluent
配置环境变量
vim /etc/profile
# 添加
export CONFLUENT_HOME=/opt/con

本文介绍了如何利用Debezium的MySQL连接器,通过Kafka Connect在单节点模式下将MySQL的变更数据捕获(CDC)并写入Kafka。首先,确保准备好Kafka和Zookeeper集群,以及开启MySQL的binlog。接着,下载并配置Confluent Community和Debezium MySQL Connector,设置必要的参数,如`bootstrap-server`和`plugin.path`。部署完成后,启动组件并观察Kafka topic,当在MySQL中创建新表时,Kafka中相应地会生成新的主题,可通过Kafka API消费数据验证结果。
最低0.47元/天 解锁文章
814

被折叠的 条评论
为什么被折叠?



