在flink-cdc-connectors出来之前,实时同步mysql binlog的架构基本是Debezium/Canal + Kafka 做采集层 ,用flink做数据加工计算,实现流批一体,架构图:

这个架构采集端组件过多导致维护繁杂,Debezium/Canal 和 flink 都需要维护,出现问题的概率大,查找原因繁琐。
flink-cdc-connectors组件的出现使流批一体数据仓库,通过FLINK从采集层到计算层整个ETL流程都可以由FLINK来完成。架构图:

flink-cdc-connectors源代码:https://github.com/ververica/flink-cdc-connectors
Usage for Table/SQL API
We need several steps to setup a Flink cluster with the provided connector.
Setup a Flink cluster with version 1.12+ and Java 8+ installed.
Download the connector SQL jars fro
FLINK流批一体:使用flink-cdc-connectors简化ETL流程
本文探讨了如何使用flink-cdc-connectors组件来实现MySQL binlog的实时同步,从而简化原本由Debezium/Canal + Kafka组成的复杂架构。flink-cdc-connectors允许整个ETL流程都在FLINK中完成,减少了维护成本和故障排查难度。详细介绍了设置Flink集群和使用Flink SQL API或DataStream API连接MySQL CDC源的方法,并给出了示例。
订阅专栏 解锁全文
1160





