消息中间件之Kafka史上最强原理总结

本文深入探讨Apache Kafka的架构、特性及其应用场景,包括消息的发送、保存和消费流程,以及Kafka如何通过分区和副本机制确保高吞吐量和数据可靠性。

前言

最近项目使用到中间件,自己以前也对kafka原理应用垂涎已久了,故这个周末抽空总结一波。

Kafka 是什么?

Apache Kafka是分布式发布-订阅消息系统,在 kafka官网上对 kafka 的定义:一个分布式发布-订阅消息传递系统。 它最初由LinkedIn公司开发,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。Kafka是一种快速、可扩展的、设计内在就是分布式的,分区的和可复制的提交日志服务。

开源消息中间件不止kafka一种,如下图:

各消息队列对比,Kafka深度解析,众人推荐,精彩好文: http://blog.youkuaiyun.com/allthesametome/article/details/47362451

为什么使用消息中间件?

解耦

快递小哥手上有很多快递需要送,他每次都需要先电话一一确认收货人是否有空、哪个时间段有空,然后再确定好送货的方案。这样完全依赖收货人了!如果快递一多,快递小哥估计得忙疯了……

如果有了便利店,快递小哥只需要将同一个小区的快递放在同一个便利店,然后通知收货人来取货就可以了,这时候快递小哥和收货人就实现了解耦!

异步

快递小哥打电话给我后需要一直在你楼下等着,直到我拿走你的快递他才能去送其他人的。

快递小哥将快递放在小芳便利店后,又可以干其他的活儿去了,不需要等待你到来而一直处于等待状态,提高了工作的效率。

削峰

假设双十一我买了不同店里的各种商品,而恰巧这些店发货的快递都不一样,有中通、圆通、申通、各种通等……更巧的是他们都同时到货了!

中通的小哥打来电话叫我去北门取快递、圆通小哥叫我去南门、申通小哥叫我去东门。我一时手忙脚乱……

我们能看到在系统需要交互的场景中,使用消息队列中间件真的是好处多多,基于这种思路,就有了丰巢、菜鸟驿站等比小芳便利店更专业的“中间件”了。

消息中间件kafka

Apache Kafka与传统消息系统相比,有以下不同:

它被设计为一个分布式系统,易于向外扩展;

它同时为发布和订阅提供高吞吐量;

它支持多订阅者,当失败时能自动平衡消费者;

它将消息持久化到磁盘,因此可用于批量消费,例如ETL,以及实时应用程序。

下面主要介绍Apache Kafka的架构、特性和特点,帮助我们理解Kafka为何比传统消息服务更好。

kafka业务场景与概念分析

借鉴“宇道源码”的一张总结的非常好的图,它大致又细致的描述了kafka的使用场景:

上图的相关概念是:

Producer:Producer 即生产者,消息的产生者,是消息的入口。

Kafka Cluster

Broker:Broker 是 Kafka 实例,每个服务器上有一个或多个 Kafka 的实例,我们姑且认为每个 Broker 对应一台服务器。

每个 Kafka 集群内的 Broker 都有一个不重复的编号,如图中的 Broker-0、Broker-1 等……

Topic:消息的主题,可以理解为消息的分类,Kafka 的数据就保存在 Topic。在每个 Broker 上都可以创建多个 Topic。

Partition:Topic 的分区,每个 Topic 可以有多个分区,分区的作用是做负载,提高 Kafka 的吞吐量。同一个 Topic 在不同的分区的数据是不重复的,Partition 的表现形式就是一个一个的文件夹!

Replication:每一个分区都有多个副本,副本的作用是做备胎。当主分区(Leader)故障的时候会选择一个备胎(Follower)上位,成为 Leader。

在 Kafka 中默认副本的最大数量是 10 个,且副本的数量不能大于 Broker 的数量,Follower 和 Leader 绝对是在不同的机器,同一机器对同一个分区也只可能存放一个副本(包括自己)。

Message:每一条发送的消息主体。

Consumer:消费者,即消息的消费方,是消息的出口。

Consumer Group:我们可以将多个消费组组成一个消费者组,在 Kafka 的设计中同一个分区的数据只能被消费者组中的某一个消费者消费。同一个消费者组的消费者可以消费同一个 Topic 的不同分区的数据,这也是为了提高 Kafka 的吞吐量!

Zookeeper:Kafka 集群依赖 Zookeeper 来保存集群的的元信息,来保证系统的可用性。

发送数据

我们看上面的架构图中,Producer 就是生产者,是数据的入口。注意看图中的红色箭头,Producer 在写入数据的时候永远在找 Leader,不会直接将数据写入 Follower!那 Leader 怎么找呢?写入的流程又是什么样的呢?我们看下图:   

发送的流程就在图中已经说明了,就不单独在文字列出来了!需要注意的一点是,消息写入 Leader 后,Follower 是主动的去 Leader 进行同步的!Producer 采用 Push 模式将数据发布到 Broker,每条消息追加到分区中,顺序写入磁盘,所以保证同一分区内的数据是有序的!写入消息到分区的示意图如下:

上面说到数据会写入到不同的分区,那 Kafka 为什么要做分区呢?相信大家应该也能猜到,分区的主要目的是:

  • 方便扩展。因为一个 Topic 可以有多个 Partition,所以我们可以通过扩展机器去轻松的应对日益增长的数据量。

  • 提高并发。以 Partition 为读写单位,可以多个消费者同时消费数据,提高了消息的处理效率。

kafka Partition 分配原则

熟悉负载均衡的朋友应该知道,当我们向某个服务器发送请求的时候,服务端可能会对请求做一个负载,将流量分发到不同的服务器。那在 Kafka 中,如果某个 Topic 有多个 Partition,Producer 又怎么知道该将数据发往哪个 Partition 呢?

Kafka 中有几个原则:

  • Partition 在写入的时候可以指定需要写入的 Partition,如果有指定,则写入对应的 Partition。

  • 如果没有指定 Partition,但是设置了数据的 Key,则会根据 Key 的值 Hash 出一个 Partition。

  • 如果既没指定 Partition,又没有设置 Key,则会轮询选出一个 Partition。

kafka确保消息不丢失性

其实上面的写入流程图中有描述出来,那就是通过 ACK 应答机制!在生产者向队列写入数据的时候可以设置参数来确定是否确认 Kafka 接收到数据,这个参数可设置的值为 0、1、all:

  • 0 代表 Producer 往集群发送数据不需要等到集群的返回,不确保消息发送成功。安全性最低但是效率最高。

  • 1 代表 Producer 往集群发送数据只要 Leader 应答就可以发送下一条,只确保 Leader 发送成功。

  • all 代表 Producer 往集群发送数据需要所有的 Follower 都完成从 Leader 的同步才会发送下一条,确保 Leader 发送成功和所有的副本都完成备份。安全性最高,但是效率最低。

  • 最后要注意的是,如果往不存在的 Topic 写数据,能不能写入成功呢?答案是:Kafka 会自动创建 Topic,分区和副本的数量根据默认配置都是 1。
     

保存数据:partition结构

Producer 将数据写入 Kafka 后,集群就需要对数据进行保存了!Kafka 将数据保存在磁盘,可能在我们的一般的认知里,写入磁盘是比较耗时的操作,不适合这种高并发的组件。

Kafka 初始会单独开辟一块磁盘空间,顺序写入数据(效率比随机写入高)。

前面说过了每个 Topic 都可以分为一个或多个 Partition,如果你觉得 Topic 比较抽象,那 Partition 就是比较具体的东西了:

  • Partition 在服务器上的表现形式就是一个一个的文件夹,每个 Partition 的文件夹下面会有多组 Segment 文件。

  • 每组 Segment 文件又包含 .index 文件、.log 文件、.timeindex 文件(早期版本中没有)三个文件。

  • Log 文件就是实际存储 Message 的地方,而 Index 和 Timeindex 文件为索引文件,用于检索消息。

如上图,这个 Partition 有三组 Segment 文件,每个 Log 文件的大小是一样的,但是存储的 Message 数量是不一定相等的(每条的 Message 大小不一致)。

文件的命名是以该 Segment 最小 Offset 来命名的,如 000.index 存储 Offset 为 0~368795 的消息,Kafka 就是利用分段+索引的方式来解决查找效率的问题。

保存数据:Message结构

上面说到 Log 文件就实际是存储 Message 的地方,我们在 Producer 往 Kafka 写入的也是一条一条的 Message。

那存储在 Log 中的 Message 是什么样子的呢?消息主要包含消息体、消息大小、Offset、压缩类型……等等!我们重点需要知道的是下面三个:

  • Offset:Offset 是一个占 8byte 的有序 id 号,它可以唯一确定每条消息在 Parition 内的位置!

  • 消息大小:消息大小占用 4byte,用于描述消息的大小。

  • 消息体:消息体存放的是实际的消息数据(被压缩过),占用的空间根据具体的消息而不一样。

保存数据:存储策略

无论消息是否被消费,Kafka 都会保存所有的消息。那对于旧数据有什么删除策略呢?

  • 基于时间, 默认配置是 168 小时(7 天)。

  • 基于大小, 默认配置是 1073741824。

  • 需要注意的是,Kafka 读取特定消息的时间复杂度是 O(1),所以这里删除过期的文件并不会提高 Kafka 的性能!

消费数据

消息存储在 Log 文件后,消费者就可以进行消费了。消费模式比如:点对点模式和发布订阅模式。

点对点模式(1对1消费)

发布订阅模式(1对多消费)

而Kafka 采用的是点对点的模式,消费者主动的去 Kafka 集群拉取消息,与 Producer 相同的是,消费者在拉取消息的时候也是找 Leader 去拉取。

kafka的consumer消费原则有两个:

  • 多个消费者可以组成一个消费者组(Consumer Group),每个消费者组都有一个组 id!

  • 同一个消费组者的消费者可以消费同一 Topic 下不同分区的数据,但是不会组内多个消费者消费同一分区的数据!

是不是有点绕?我们看下图:

图示是消费者组内的消费者小于 Partition 数量的情况,所以会出现某个消费者消费多个 Partition 数据的情况,消费的速度也就不及只处理一个 Partition 的消费者的处理速度!

如果是消费者组的消费者多于 Partition 的数量,那会不会出现多个消费者消费同一个 Partition 的数据呢?

  • 上面已经提到过不会出现这种情况!多出来的消费者不消费任何 Partition 的数据。所以在实际的应用中,建议消费者组的 Consumer 的数量与 Partition 的数量一致!

FAQ(前方高能预警!)

在保存数据的小节里面,我们聊到了 Partition 划分为多组 Segment,每个 Segment 又包含 .log、.index、.timeindex 文件,存放的每条 Message 包含 Offset、消息大小、消息体…… 同时,我们多次提到 Segment 和 Offset,查找消息的时候是怎么利用 Segment+Offset 配合查找的呢?

消费实例

假如现在需要查找一个 Offset 为 368801 的 Message 是什么样的过程呢?我们先看看下面的图:

  • 先找到 Offset 的 368801message 所在的 Segment 文件(利用二分法查找),这里找到的就是在第二个 Segment 文件。

  • 打开找到的 Segment 中的 .index 文件(也就是 368796.index 文件,该文件起始偏移量为 368796+1。我们要查找的 Offset 为 368801 的 Message 在该 Index 内的偏移量为 368796+5=368801,所以这里要查找的相对 Offset 为 5)。由于该文件采用的是稀疏索引的方式存储着相对 Offset 及对应 Message 物理偏移量的关系,所以直接找相对 Offset 为 5 的索引找不到这里同样利用二分法查找相对 Offset 小于或者等于指定的相对 Offset 的索引条目中最大的那个相对 Offset,所以找到的是相对 Offset 为 4 的这个索引

  • 根据找到的相对 Offset 为 4 的索引确定 Message 存储的物理偏移位置为 256。打开数据文件,从位置为 256 的那个地方开始顺序扫描直到找到 Offset 为 368801 的那条 Message。

因此,这套机制是建立在 Offset 为有序的基础上,利用 Segment+有序 Offset+稀疏索引+二分查找+顺序查找等多种手段来高效的查找数据!至此,消费者就能拿到需要处理的数据进行处理了。

那每个消费者又是怎么记录自己消费的位置呢?

在早期的版本中,消费者将消费到的 Offset 维护在 Zookeeper 中,Consumer 每间隔一段时间上报一次,这里容易导致重复消费,且性能不好!在新的版本中消费者消费到的 Offset 已经直接维护在 Kafka 集群的 __consumer_offsets 这个 Topic 中!

Kafka消费Offset原理

在通过Client端消费Kafka中的消息时,消费的消息会同时在Zookeeper和Kafka Log中保存,如上图红线所示。

当手动删除Kafka某一分片上的消息日志时,如上图蓝线所示,此是只是将Kafka Log中的信息清0了,但是Zookeeper中的Partition和Offset数据依然会记录。当重新启动Kafka后,我们会发现如下二种情况:    

  • 客户端无法正常用消费;

  • 在使用Kafka Consumer Offset  Monitor工具进行Kafka监控时会发现Lag(还有多少消息数未读取(Lag=logSize-Offset))为负数;其中此种情况的删除操作需要我们重点关注,后面我们也会详细介绍其对应的操作步骤。

    一般正常情况,如果想让Kafka客户端正常消费,那么需要Zookeeper和Kafka Log中的记录保持如上图黄色所示。

—END—

订阅关注

获取更多精彩

后台技术汇

Kafka 是一种高吞吐量、分布式、可持久化、可扩展的消息中间件,其工作原理基于日志结构和发布-订阅消息模型。以下是其工作原理的详细解析: ### 消息模型与通信模式 Kafka 的消息模型基于发布-订阅模式,生产者将消息发布到特定主题(Topic),消费者通过订阅这些主题来获取消息。与点对点模式不同,多个消费者可以同时消费同一主题的消息,这使得 Kafka 适用于广播和实时流处理场景。 ### 数据发送流程 生产者将消息发送到 Kafka Broker,消息被追加写入对应主题的分区(Partition)中。每个分区是一个有序、不可变的记录序列,消息通过偏移量(Offset)进行唯一标识。生产者可以选择将消息发送到特定分区或由 Kafka 自动分配分区。 ### 数据存储机制 Kafka 将消息以日志形式存储在磁盘上,每个分区对应一个日志文件。日志文件被划分为多个段(Segment),每个段包含一定数量的消息。这种分段存储方式便于管理和清理日志,同时支持高效的消息追加写入和查询。Kafka 采用顺序写入磁盘的方式,极大提高了写入性能[^4]。 ### 数据读取与索引 对于读取操作,Kafka 通过索引文件快速定位消息位置,保证了高效的读取效率。消费者通过维护偏移量来跟踪已消费的消息位置,从而实现灵活的消息处理策略。 ### 分布式架构与副本机制 Kafka分布式架构由多个 Broker 组成,每个 Broker 负责管理部分分区。为了提高数据的可靠性和容错性,Kafka 支持消息的持久化存储和副本机制。通过配置副本因子,可以将消息复制到多个 Broker 节点上,确保即使在部分节点故障的情况下,数据也不会丢失[^1]。 ### 消息传递保证 Kafka 提供了三种消息传递保证:至多一次(At-Most-Once)、至少一次(At-Least-Once)和恰好一次(Exactly-Once)。通过配置消费者的确认机制和事务支持,可以实现不同级别的消息传递保证。 ### 与其他消息中间件的对比 相比其他消息中间件,如 RabbitMQ 和 ActiveMQ,Kafka 在高吞吐量、持久化和水平扩展方面具有显著优势。RabbitMQ 更适合低延迟、强一致性的场景,而 Kafka 则专注于大规模数据流的高效处理[^2]。 ### 示例代码:Kafka 生产者和消费者 以下是一个简单的 Kafka 生产者和消费者的 Python 示例,使用 `kafka-python` 库: #### Kafka 生产者 ```python from kafka import KafkaProducer producer = KafkaProducer(bootstrap_servers='localhost:9092') topic = 'test-topic' for i in range(10): message = f"Message {i}".encode('utf-8') producer.send(topic, value=message) producer.flush() producer.close() ``` #### Kafka 消费者 ```python from kafka import KafkaConsumer consumer = KafkaConsumer( 'test-topic', bootstrap_servers='localhost:9092', auto_offset_reset='earliest' ) for message in consumer: print(f"Received message: {message.value.decode('utf-8')}") consumer.close() ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

后台技术汇

对你的帮助,是对我的最好鼓励。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值