[mysql&flink]关于同步数据,binlog怎么做增量

目录

前言

解决方案

方案1. 可以使用flink cdc进行消费

方案2:三个时间点,T0开始订阅,T1是做初始化,T2是进行增量merge(第一次merge)


前言

之前探讨的,整理一下简单的思路

mysql -> hive 进行同步。

主要的问题点在于,订阅增量 以及初始化,之间是有时间间隔的。

怎么做才能保证数据的准确性

前提:都是通过canal 读取binlog。

canal进行抽数。弄到kafka 然后flink进行消费。

解决方案

方案1. 可以使用flink cdc进行消费

https://blog.youkuaiyun.com/u011532105/article/details/109644444

作者:收数佬

大概就是这么个新东西,在1.11之后才出现的。不过没有仔细调研,后面可以读读看。 

  1. mysql开启binlog

  2. canal同步binlog数据写入到kafka

  3. flink读取kakfa中的binlog数据进行相关的业务处理。

Apache Flink CDC可以直接从数据库获取到binlog供下游进行业务计算分析。简单来说链

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值