canal+mysql binlog+kafka+es 实现数据同步和搜索

文章介绍了如何通过Canal监听MySQL的binlog,将变更事件发送到Kafka,再由Kafka消费者同步到Elasticsearch中,涉及Canal配置、Kafka安装以及SpringBoot应用中的Kafka监听程序设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文记录 elasticsearch 搜索和数据同步一种方案

通过对mysql的binlog监听,将数据库信息发送到kafka 然后通过kafka的topic的监听 同步到es库里

一 .安装canal 用于对mysql的binlog的监听
https://github.com/alibaba/canal/releases/tag/canal-1.1.7-alpha-2
![在这里插入图片描述](https://img-blog.csdnimg.cn/162145728b9244b4a1de5e74c54ded26.png)
  1. 解压:tar zxvf canal.deployer-1.1.7-SNAPSHOT.tar.gz -C canal-1.1.7/

  2. 修改配置文件 这里使用的是 canal ->kafka 修改 canal.serverMode = kafka
    修改canal.destinations为配置instance,默认是 example
    修改配置文件里面的kafka配置
    kafka.bootstrap.servers = xxxxxxx:9092,xxxxxx:9092,xxxxxxx:9092
    kafka.acks = all
    kafka.compression.type = none
    kafka.batch.size = 16384
    kafka.linger.ms = 1
    kafka.max.request.size = 1048576
    kafka.buffer.memory = 33554432
    kafka.max.in.flight.requests.per.connection = 1
    kafka.retries = 0

    kafka.kerberos.enable = false
    kafka.kerberos.krb5.file = “…/conf/kerberos/krb5.conf”
    kafka.kerberos.jaas.file = “…/conf/kerberos/jaas.conf”
    保存

  3. 配置监听的数据库
    由于上面instance 配置的是example vim /conf/example/instance.properties
    修改第一处为自己的mysql地址 ip:3306
    第二处 用户名和密码
    第三处 需要监听的表 可以去查看该值配置的表达式含义
    第四处 对应kafka的topic

在这里插入图片描述

如需配置多个canal.destinations 比如:一张表数据对应一个topic

  1. canal.destinations = articles,user
  2. 复制一份conf下面的example文件夹 修改里面配置
    在这里插入图片描述

二. 启动kafka
kafka安装链接

三. 在springboot工程创建kafka监听程序 后续在写

### 使用 Canal 实现 MySQLKafka数据同步 #### 一、环境准备 为了成功实现MySQL 同步数据到 Kafka,需确认 MySQL 已经开启了 binlog 功能并创建了具备相应权限的用户。对于 MySQL 用户设置方面,应当执行如下 SQL 命令来建立拥有适当权限的新用户[^4]: ```sql CREATE USER canal IDENTIFIED BY 'Asas12!@'; GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%'; FLUSH PRIVILEGES; ALTER USER 'canal'@'%' IDENTIFIED WITH mysql_native_password BY 'Asas12!@'; ``` #### 二、安装与部署 Canal Server Canal Adapter 下载适合操作系统的 Canal 版本,并解压至目标目录;启动前编辑 `conf/example/instance.properties` 文件完成针对特定数据库实例的基础设定工作。 接着要配置 Canal Adapter 来桥接 Canal Kafka。Adapter 是负责接收来自 Canal 的变更事件并将它们转发给下游系统(这里是 Kafka)。同样地,在适配器配置文件里指明消息队列的目标地址以及主题名称等参数[^2]。 #### 三、修改 Canal 配置文件 在 Canal 中需要调整两个重要配置文件: - **canal.properties**: 设置全局属性比如日志级别、线程池大小等; - **instance.properties**: 定义具体实例连接细节,包括但不限于主机名、端口、用户名密码等信息用于访问源端 MySQL 数据库。 例如,在 instance.properties 中添加或更改以下条目以适应实际情况: ```properties canal.instance.master.address=192.168.0.1:3306 canal.instance.dbUsername=canal canal.instance.dbPassword=Asas12!@ ``` #### 四、编写 Canal-Kafka 插件配置 为了让 Canal 将捕获的变化发送到 Kafka 上,则还需要定义专门面向 Kafka 输出插件的相关选项。这通常涉及到更新 adapter-spring.xml 或者其他形式的应用上下文 XML 文档内的 bean 定义部分。 ```xml <bean id="kafkaProducer" class="org.apache.kafka.clients.producer.KafkaProducer"> <constructor-arg> <map> <entry key="bootstrap.servers" value="${kafka.bootstrapServers}"/> <!-- 更多生产者的配置项 --> </map> </constructor-arg> </bean> <bean id="tableMetaCacheFactory" class="com.alibaba.otter.canal.client.adapter.support.TableMetaCacheFactory"> ... </bean> <!-- 这里的destination对应于Canal server中配置的具体实例名字 --> <bean id="adapterHandler" class="com.alibaba.otter.canal.client.adapter.es.handler.EsAdapterHandler"> <property name="destinations"> <list> <value>example</value> </list> </property> </bean> ``` 注意上述代码片段仅作为一个示意性的例子展示如何集成Kafka 生产者 API 及其关联组件,请依据官方文档进一步完善具体的实现逻辑。 #### 五、测试验证 当所有的准备工作都完成后,可以通过向 MySQL 表内插入新记录的方式来检验整个流程是否正常运作。如果一切顺利的话,应该可以在指定的 Kafka 主题上看到相应的变更通知被发布出来。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值