硬核图解| Kafka 如何保证消息不丢失?

本文介绍了Kafka消息框架在处理消息丢失和重复消费的问题上的策略。生产端通过设置acks、retries和retry.backoff.ms参数确保消息正确发送;MQ服务端利用副本和ISR机制保证数据不丢失;消费端则需谨慎处理提交位移,避免数据重复。同时,文章提到了Kafka的幂等性特性以及如何在消费端实现幂等控制,以防止重复消费导致的数据不一致。

Kafka 消息框架,大家一定不陌生,很多人工作中都有接触。它的核心思路,通过一个高性能的MQ服务来连接生产消费两个系统,达到系统间的解耦,有很强的扩展性。

你可能会有疑问,如果中间某一个环节断掉了,那怎么办?

这种情况,我们称之为消息丢失,会造成系统间的数据不一致。

那如何解决这个问题?需要从生产端MQ服务端消费端,三个维度来处理

1、生产端

生产端的职责就是,确保生产的消息能到达MQ服务端,这里我们需要有一个响应来判断本次的操作是否成功。

Future<RecordMetadata> send(ProducerRecord<K, V> record, Callback callback)

比如,上面的代码就是通过一个Callback函数,来判断消息是否发送成功,如果失败,我们需要补偿处理。

另外,为了提升发送时的灵活性,kafka提供了多种参数,供不同业务自己选择

1.1 参数 acks

该参数表示有多少个分区副本收到消息,才认为本次发送是成功的。

  • acks=0,只要发送消息就认为成功,生产端不等待服务器节点的响应

  • acks=1,表示生产者收到 leader 分区的响应就认为发送成功

  • acks=-1,只有当 ISR 中的副本全部收到消息时,生产端才会认为是成功的。这种配置是最安全的,但由于同步的节点较多,吞吐量会降低。

1.2 参数 retries

表示生产端的重试次数,如果重试次数用完后,还是失败,会将消息临时存储在本地磁盘,待服务恢复后再重新发送。建议值 retries=3

1.3 参数 retry.backoff.m

消息发送超时或失败后,间隔的重试时间。一般推荐的设置时间是 300 毫秒。

这里要特别注意一种特殊情况,如果MQ服务没有正常响应,不一定代表消息发送失败,也有可能是响应时正好赶上网络抖动,响应超时。

当生产端做完这些,一定能保证消息发送成功了,但可能发送多次,这样就会导致消息重复,这个我们后面再讲解决方案

2、MQ服务端

MQ服务端作为消息的存储介质,也有可能会丢失消息。比如:一个分区突然挂掉,那么怎么保证这个分区的数据不丢失,我们会引入副本概念,通过备份来解决这个问题。

具体可设置哪些参数?

2.1 参数 replication.factor

表示分区副本的个数,replication.factor >1 当leader 副本挂了,follower副本会被选举为leader继续提供服务。

2.2 参数 min.insync.replicas

表示 ISR 最少的副本数量,通常设置 min.insync.replicas >1,这样才有可用的follower副本执行替换,保证消息不丢失

2.3 参数 unclean.leader.election.enable

是否可以把非 ISR 集合中的副本选举为 leader 副本。

如果设置为true,而follower副本的同步消息进度落后较多,此时被选举为leader,会导致消息丢失,慎用。

3、消费端

消费端要做的是把消息完整的消费处理掉。但是这里面有个提交位移的步骤。

有的同学,考虑到业务处理消耗时间较长,会单独启动线程拉取消息存储到本地内存队列,然后再搞个线程池并行处理业务逻辑。这样设计有个风险,本地消息如果没有处理完,服务器宕机了,会造成消息丢失。

正确的做法:拉取消息 ---  业务处理  ---- 提交消费位移

关于提交位移,kafka提供了集中参数配置

参数  enable.auto.commit

表示消费位移是否自动提交。

如果拉取了消息,业务逻辑还没处理完,提交了消费位移但是消费端却挂了,消费端恢复或其他消费端接管该分片再也拉取不到这条消息,会造成消息丢失。所以,我们通常设置 enable.auto.commit=false,手动提交消费位移。

List<String> messages = consumer.poll();
processMsg(messages);
consumer.commitOffset();

这个方案,会产生另外一个问题,我们来看下这个图

拉取了消息4~消息8,业务处理后,在提交消费位移时,不凑巧系统宕机了,最后的提交位移并没有保存到MQ 服务端,下次拉取消息时,依然是从消息4开始拉取,但是这部分消息已经处理过了,这样便会导致重复消费。

如何解决重复消费,避免引发数据不一致

首先,要解决MQ 服务端的重复消息。kafka 在  0.11.0 版本后,每条消息都有唯一的message id, MQ服务采用空间换时间方式,自动对重复消息过滤处理,保证接口的幂等性。

但这个不能根本上解决消息重复问题,即使MQ服务中存储的消息没有重复,但消费端是采用拉取方式,如果重复拉取,也会导致重复消费,如何解决这种场景问题?

方案一:只拉取一次(消费者拉取消息后,先提交 offset 后再处理消息),但是如果系统宕机,业务处理没有正常结束,后面再也拉取不到这些消息,会导致数据不一致,该方案很少采用。

方案二:允许拉取重复消息,但是消费端自己做幂等性控制。保证只成功消费一次

关于幂等技术方案很多,我们可以采用数据表Redis缓存存储处理标识,每次拉取到消息,处理前先校验处理状态,再决定是处理还是丢弃消息。

推荐阅读

聊聊 Kafka 那点破事!

什么是布隆过滤器?如何解决高并发缓存穿透问题?

由于没有与Bitslice硬核提升HP Bank IO性能方法的相关引用内容,下面结合专业知识进行解答。 Bitslice硬核是FPGA(现场可编程门阵列)中的一种硬件资源,HP Bank是FPGA中高性能的输入输出银行。提升HP Bank IO性能可以从以下几个方面着手: ### 优化信号布线 - **缩短布线长度**:在FPGA设计中,信号的布线长度会影响信号的传输延迟和信号完整性。尽量缩短HP Bank与Bitslice硬核之间的布线长度,减少信号传输路径上的延迟和干扰。例如,合理规划FPGA的布局,将相关的逻辑单元和IO引脚靠近放置,避免过长的走线。 ```verilog // 示例:模块端口定义及布局考虑 module my_module ( input wire [7:0] hp_bank_input, output wire [7:0] hp_bank_output ); // 模块内部逻辑 // 尽量将与hp_bank_input和hp_bank_output相关的逻辑靠近放置 endmodule ``` - **避免信号交叉**:信号交叉会增加信号之间的耦合和干扰,影响IO性能。在布线时,要避免不同信号之间的交叉,特别是高速信号和敏感信号。可以采用分层布线、合理的信号分组等方法来减少信号交叉。 ### 调整时钟管理 - **选择合适的时钟源**:为HP Bank的IO操作选择合适的时钟源,确保时钟信号的稳定性和准确性。可以使用FPGA内部的PLL(锁相环)或DLL(延迟锁相环)来生成所需的时钟信号,以满足高速IO的要求。 ```verilog // 示例:使用PLL生成时钟 wire clk_in; wire clk_out; PLL pll_inst ( .CLKIN(clk_in), .CLKOUT(clk_out) ); // 将clk_out作为HP Bank的时钟信号 ``` - **优化时钟分配**:合理分配时钟信号到各个HP Bank和Bitslice硬核,确保时钟信号的同步性。可以采用全局时钟网络或区域时钟网络来分配时钟,减少时钟偏差和抖动。 ### 配置IO标准 - **选择合适的IO标准**:根据系统的需求和HP Bank的支持情况,选择合适的IO标准。不同的IO标准具有不同的电气特性和传输速率,选择合适的IO标准可以提高IO性能。例如,对于高速数据传输,可以选择LVDS(低压差分信号)等高速IO标准。 ```verilog // 示例:设置IO标准 module my_module ( (* IOSTANDARD = "LVDS" *) input wire [7:0] hp_bank_input, (* IOSTANDARD = "LVDS" *) output wire [7:0] hp_bank_output ); // 模块内部逻辑 endmodule ``` - **调整IO参数**:根据实际情况,调整IO的驱动强度、上拉/下拉电阻等参数,以优化信号的驱动能力和抗干扰能力。 ### 数据处理优化 - **并行数据处理**:利用Bitslice硬核的并行处理能力,将数据进行并行处理,提高数据传输的效率。例如,将一个宽位数据分成多个窄位数据进行并行处理,然后再合并输出。 ```verilog // 示例:并行数据处理 module parallel_data_process ( input wire [31:0] data_in, output wire [31:0] data_out ); wire [7:0] data_part0, data_part1, data_part2, data_part3; // 分割数据 assign data_part0 = data_in[7:0]; assign data_part1 = data_in[15:8]; assign data_part2 = data_in[23:16]; assign data_part3 = data_in[31:24]; // 并行处理数据 wire [7:0] processed_part0, processed_part1, processed_part2, processed_part3; // 这里可以添加具体的处理逻辑 // 合并数据 assign data_out = {processed_part3, processed_part2, processed_part1, processed_part0}; endmodule ``` - **数据缓存和预取**:在Bitslice硬核设置合适的数据缓存和预取机制,减少数据等待时间,提高数据处理的连续性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值