flink接收kafka的数据信息
配置信息科在 Ctrl+左键 点击KafkaProducer 进入源码中在70-120行内如果未找到在位置有下载按钮 点击及等待下载
Flume的信息传输
命名 区
a1.sources = r1
a1.sinks = k1
a1.channels = c1
//数据获取的配置信息
Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 5566
//数据发送的数据信息
Describe the sink
a1.sinks.k1.type = logger
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic = 1805b
a1.sinks.k1.kafka.bootstrap.servers = hadoop102:9092
a1.sinks.k1.kafka.flumeBatchSize = 20
a1.sinks.k1.kafka.useFlumeEventFormat=true
//数据缓存的方法
Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity
Flink-Kafka-Flume数据处理流程详解

本文介绍了如何使用Flink接收来自Kafka的数据,并通过Flume进行信息传输。配置包括Flume的source、sink和channel设置,详细说明了数据获取、发送和内存缓冲的过程。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



