kafka 顺序消费, spark streaming exactly-once以及零丢失的一些总结

本文介绍了Kafka作为分布式流式平台的特性,以及如何实现Kafka的顺序消费和Spark Streaming的exactly-once保证。在Kafka中,通过设置多个分区和副本确保消息有序,并探讨了offset管理和数据一致性。文中提到了MySQL到Kafka的数据流,以及如何通过Maxwell producer将数据写入Kafka,最后通过Spark streaming进行顺序消费并实现exactly-once语义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Kafka:定义:

消息中间件 –>分布式流式平台

生产者   source
Broker channel
消费者 sink 

正常部署的是:

 Broker进程(一个机器一个(分布式),一个机器多个(伪分布式))

使用场景:

Flume-->Kafka-->Spark streaming 实时流式Kafka Streaming

特点:

发布/订阅
实时app
分布式  副本数 一个
SCALA编写

部署: kafka_2.11-0.10.0.0.tgz
scala version:2.11

准备环境:

1.JDK
   java -version
2.Scala 
   scala -version
3.Zookeeper
[root@node85 software]# ln -s zookeeper-3.4.6 zookeeper
[root@node85 software]# ll
total 462992  
lrwxrwxrwx   1 hdfs hdfs        33 Jan 

命令解释:

 软连接:ln -s   物理文件夹/文件 快捷的文件夹/文件 
 1.删除 快捷的文件夹/文件 ,增加安全系数
 2.多版本管理
 3.硬连接

常用命令:kafka-topics.sh

bin/kafka-topics.sh --create \--zookeeper node85:2181,node86:2181,node87:2181/kafka \--replication-factor 3 \--partitions 3 \--topic test

高并发写/读 :

bin/kafka-topics.sh --list \--zookeeper node85:2181,node86:2181,node87:2181/kafka

生产者:

bin/kafka-console-producer.sh \--broker-list node85:9092,node86:9092,node87:9092 \--topic test
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值