Kafka Stream提供了对存储于Kafka内的数据进行流式处理和分析的功能。
使用kafkaStream将kafka输入一个topic的数据,以实时流的方式写入到另一个topic
中间可以对数据进行“加工”,对截取到的数据累加后在放到另一个topic中
首先新建两个kafka topic 一个用来作为第一接受数据topic,另一个用来接收转发数据topic
suminput为接收数据topic
kafka-topics.sh --zookeeper 192.168.150.100:2181 --create --topic suminput--partitions 1 --replication-factor 1
sumoutput为接收转发数据topic
kafka-topics.sh --zookeeper 192.168.150.100:2181 --create --topic sumoutput--partitions 1 --replication-factor 1
在idea新建maven工程
新建Java程序
在pom.xml中添加
输入以下代码并运行
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka_2.11</artifactId>
<version>2.0.0</version>
</dependency>
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-streams</artifactId>
<version>2.0.0</version>
</dependency>
package flume.kafkaStreaming;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.common

本文介绍了如何使用Kafka Streams对Kafka中的数据进行实时流处理和分析。通过创建Kafka topics `suminput` 和 `sumoutput`,并将数据从`suminput` topic加工(累加)后写入`sumoutput` topic。示例代码展示了如何在Java程序中配置Kafka Streams,实现数据流的转换和累加操作,并在Idea中构建和运行。最终,当生产者向`suminput` topic发送数字时,程序会累加这些数字并将结果输出到`sumoutput` topic。
最低0.47元/天 解锁文章
580

被折叠的 条评论
为什么被折叠?



