大数据_Flink_数据处理_流处理API_Source_从kafka读取数据---Flink工作笔记0027

本文介绍了如何使用Flink从Kafka消息队列中读取数据。通过添加相关依赖,配置FlinkKafkaConsumer011,指定主题、DeserializationSchema和Kafka的配置信息,实现数据源的接入。详细步骤包括启动Zookeeper和Kafka,创建生产者,并最终成功接收数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

然后我们再继续看,flink如果直接从kafka这样的消息队列中读取数据怎么做呢?

 

我们新建一个SourceTest2_Kafka来看,可以看到上面的类

 

然后我们要去,让flink接收kafka的数据的话,

那么首先要能连接kafka,这个时候需要一个依赖

 0.11kafka版本,2.12是scala版本

然后我们把依赖假如到pom.xml中去

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

添柴程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值