flink sql 部署_Flink SQL Client + Mysql CDC 部署实践

本文介绍了如何部署一个基于Flink SQL Client的作业,该作业使用MySQL CDC读取binlog增量数据,并将数据同步到Kafka topic。首先,详细列出了所需的环境准备,包括Docker容器、连接器等。接着,通过Docker Compose启动Flink、MySQL和Kafka服务。然后,创建MySQL数据库和表,初始化数据。最后,通过Flink SQL客户端编写并执行SQL脚本,实现数据流处理和Kafka的写入。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.环境准备

目标实现

构建一个以Flink SQL Client为基础,简单的读取mysql binlog增量同步数据到kafka topic中的Flink任务

应用准备清单Docker Desktop windows桌面版/Docker

Flink docker镜像(Flink 1.11.2 scala 2.12)

MySQL docker镜像(latest)

kafka docker镜像(latest)

连接器清单

flink-format-changelog-json-1.1.0.jar

flink-sql-connector-kafka_2.12-1.11.2.jar

flink-sql-connector-mysql-cdc-1.1.0.jar

备注:连接器需要单独下载并放到FLINK_HOME/lib下,可从阿里云镜像点下载相关jar包

仓库服务

使用命令docker cp ${jar} ${containerName}:/${dir},从本地复制jar包到docker容器中

Docker compose.yml文件配置

flink:compose-flink.ymlversion: "2.1"

services:

jobmanager:

image: flink

expose:

- "6123"

ports:

- "8081:8081"

command: jobmanager

environment:

- JOB_MANAGER_RPC_ADDRESS=jobmanager

taskmanager:

image: flink

expose:

- "6121"

- "6122"

depends_on

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值