kafaka 保证可靠性和数据一致性

本文深入探讨了Kafka如何通过ISR列表确保消息的可靠性,即使在leader节点故障时也能保持数据完整。同时,通过LEO和HW机制,保证了在leader切换时数据的一致性,确保所有消费者接收到的数据都是最新的且一致的。
  1. 可靠性保证是通过一个ISR列表来保证,当客户端发送消息后,得到ACK的确认。这个ACK确认的节点需要达到一定数目才能返回发送成功。也就是说需要得到一定数目节点的ACK后才算真正接收成功。这样就可以有多个副本来保证数据的可靠性,当leader挂了之后,还有相同数据的副本替换上
  2. 数据一致性,是通过每个节点都会维护一个LEO (log end offset) 所有ISR列表中节点的最小的LEO 就作为HW(high  wateroffset)。消费者只能消费HW之前的数据。当leader挂了之后,ISR列表中副本成为Leader。当然他的数据肯定大于等于HW。这时候其他的副本把HW之后的数据截取掉,从新的leader中同步数据。这样就可以保证数据的一致性
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值