【RabbitMQ篇】消息堆积/丢失 解决办法

本文探讨了MQ消息堆积的临时扩容、过期丢弃与重导策略,以及丢失预防的事务机制、confirm确认和数据持久化。还介绍了如何避免消息重复消费,涉及状态跟踪和确认机制。

一、MQ消息堆积处理

1. 临时扩容,以更快的速度去消费数据

解决方案:
这种时候只能操作临时扩容,以更快的速度去消费数据了。具体操作步骤和思路如下:

  • ①先修复consumer的问题,确保其恢复消费速度,然后将现有consumer都停掉。

  • ②临时建立好原先10倍或者20倍的queue数量(新建一个topic,partition是原来的10倍)。

  • ③然后写一个临时分发消息的consumer程序,这个程序部署上去消费积压的消息,消费之后不做耗时处理,直接均匀轮询写入临时建好分10数量的queue里面。

  • ④紧接着征用10倍的机器来部署consumer,每一批consumer消费一个临时queue的消息。

  • ⑤这种做法相当于临时将queue资源和consumer资源扩大10倍,以正常速度的10倍来消费消息。

  • ⑥等快速消费完了之后,恢复原来的部署架构,重新用原来的consumer机器来消费消息。

2. 消息设置了过期时间,过期就丢了

假设你用的是rabbitmq,rabbitmq是可以设置过期时间的,就是TTL,如果消息在queue中积压超过一定的时间就会被rabbitmq给清理掉,这个数据就没了。那这就是第二个坑了。这就不是说数据会大量积压在mq里,而是大量的数据会直接搞丢。

解决方案:
这种情况下,实际上没有什么消息挤压,而是丢了大量的消息。所以第一种增加consumer肯定不适用。

这种情况可以采取 “批量重导” 的方案来进行解决。
在流量低峰期(比如夜深人静时),写一个程序,手动去查询丢失的那部分数据,然后将消息重新发送到mq里面,把丢失的数据重新补回来。

3. 积压消息长时间没有处理,MQ放不下了

解决方案:
这个就没有办法了,肯定是第一方案执行太慢,这种时候只好采用 “丢弃+批量重导” 的方式来解决了。

首先,临时写个程序,连接到mq里面消费数据,收到消息之后直接将其丢弃,快速消费掉积压的消息,降低MQ的压力,然后走第二种方案,在晚上夜深人静时去手动查询重导丢失的这部分数据。


二、MQ消息丢失处理

详细请看我的另外一篇文章:引入RabbitMQ后,你如何保证全链路数据100%不丢失?

1. 生产者弄丢了数据

  • 1.使用事务(性能差)
    可以选择用rabbitmq提供的事务功能,在生产者发送数据之前开启rabbitmq事务(channel.txSelect),然后发送消息,如果消息没有成功被rabbitmq接收到,那么生产者会收到异常报错,此时就可以回滚事务(channel.txRollback),然后重试发送消息;如果收到了消息,那么可以提交事务(channel.txCommit)。但是问题是,开始rabbitmq事务机制,基本上吞吐量会下来,因为太耗性能。

  • 2.发送回执确认(推荐)
    可以开启confirm模式,在生产者那里设置开启confirm模式之后,你每次写的消息都会分配一个唯一的id,然后如果写入了rabbitmq中,rabbitmq会给你回传一个ack消息,告诉你说这个消息ok了。如果rabbitmq没能处理这个消息,会回调你一个nack接口,告诉你这个消息接收失败,你可以重试。而且你可以结合这个机制自己在内存里维护每个消息id的状态,如果超过一定时间还没接收到这个消息的回调,那么你可以重发。

事务机制和cnofirm机制最大的不同在于**,事务机制是同步的**,你提交一个事务之后会阻塞在那儿,但是confirm机制是异步的,你发送个消息之后就可以发送下一个消息,然后那个消息rabbitmq接收了之后会异步回调你一个接口通知你这个消息接收到了。

2. RabbitMQ弄丢了数据-开启RabbitMQ的数据持久化

为了防止rabbitmq自己弄丢了数据,这个你必须开启rabbitmq的持久化,就是消息写入之后会持久化到磁盘,哪怕是rabbitmq自己挂了,恢复之后会自动读取之前存储的数据,一般数据不会丢。除非极其罕见的是,rabbitmq还没持久化,自己就挂了,可能导致少量数据会丢失的,但是这个概率较小。

设置持久化有两个步骤:

  • 第一个是创建queue的时候将其设置为持久化的,这样就可以保证rabbitmq持久化queue的元数据,但是不会持久化queue里的数据;
  • 第二个是发送消息的时候将消息的deliveryMode设置为2,就是将消息设置为持久化的,此时rabbitmq就会将消息持久化到磁盘上去。

必须要同时设置这两个持久化才行,rabbitmq哪怕是挂了,再次重启,也会从磁盘上重启恢复queue,恢复这个queue里的数据。

而且持久化可以跟生产者那边的confirm机制配合起来,只有消息被持久化到磁盘之后,才会通知生产者ack了,所以哪怕是在持久化到磁盘之前,rabbitmq挂了,数据丢了,生产者收不到ack,你也是可以自己重发的

若生产者那边的confirm机制未开启的情况下,哪怕是你给rabbitmq开启了持久化机制,也有一种可能,就是这个消息写到了rabbitmq中,但是还没来得及持久化到磁盘上,结果不巧,此时rabbitmq挂了,就会导致内存里的一点点数据会丢失。

3. 消费端弄丢了数据

主要是因为你消费的时候,刚消费到,还没处理,结果进程挂了比如重启了,那么就尴尬了,RabbitMQ认为你都消费了,这数据就丢了。或者消费者拿到数据之后挂了,这时候需要MQ重新指派另一个消费者去执行任务(一块肉,刚用筷子夹起来,发地震抖了一下,肉掉了)

这个时候得**用RabbitMQ提供的ack机制,也是一种处理完成发送回执确认的机制。**如果MQ等待一段时间后你没有发送过来处理完成 那么RabbitMQ就认为你还没处理完,这个时候RabbitMQ会把这个消费分配给别的consumer去处理,消息是不会丢的。


三、mq消息重复发送的避免

最简单的解决方案是每条消费记录有个消费状态字段,根据这个消费状态字段来是否消费或者使用一个集中式的表,来存储所有消息的消费状态,从而避免重复消费

RabbitMQ消息堆积问题可以通过以下几种方法处理: - **增加消费者数量**:当生产消息的速度长时间远大于消费的速度时,可以通过水平扩展,增加消费者的数量来提高处理能力。这可以通过在消费者端配置多个并发消费者(consumer)来实现,例如在Spring AMQP中可以设置SimpleMessageListenerContainer的concurrentConsumers属性[^3]。 - **优化消费者性能**:提高消费者处理消息的效率,例如优化代码、增加资源等。同时,可以调整消费者的预取数量(prefetch count),以避免一次处理过多消息而导致处理缓慢。通过设置Quality of Service (QoS),可以限制消费者一次性接收的消息数量,确保消费者不会过度拉取消息导致内存不足,同时也可平衡消费者处理速度和消息拉取速度[^3]。 - **增加队列的容量**:如果队列的容量太小,无法存储足够的消息,可以调整队列设置以允许更多消息存储[^3]。 - **优化队列配置**:检查并优化消息确认模式、队列长度限制和其他相关配置,以确保队列能够高效地处理消息[^3]。 - **消息分片**:对于大型消息,可以将其分割成小的消息片段,以加快处理速度[^3]。 - **优化业务逻辑**:简化消费者中的业务逻辑,减少处理每个消息所需的时间。确保消息在消费者之间公平分配,避免个别消费者过载[^3]。 - **使用消息优先级**:将重要的消息设置为较高的优先级,可以优先处理重要的消息,从而减少消息堆积的情况[^3]。 - **设置消息的过期时间**:让消息在一定时间内未被消费时自动被删除,避免消息的长时间堆积[^3]。 - **使用死信队列(Dead Letter Queue, DLQ)**:对于无法立即处理或处理失败的消息,可以配置死信交换器和队列。当消息达到一定重试次数或者超过一定期限未被成功ACK时,消息将被转发到死信队列中,后续可以单独处理这部分消息,避免阻塞正常的消息流[^3]。 - **增加RabbitMQ的节点**:通过增加RabbitMQ的节点,可以提高消息的处理能力,从而减少消息堆积的情况[^3]。 - **调整消息的持久化方式**:将消息设置为持久化的,可以保证消息RabbitMQ异常情况下不会丢失[^3]。 - **设置监控和告警机制**:及时发现消息堆积的情况,并采取相应的处理措施[^3]。 ```python # 示例:在Python中使用pika库设置消费者预取数量 import pika connection = pika.BlockingConnection(pika.ConnectionParameters('localhost')) channel = connection.channel() # 设置QoS预取数量 channel.basic_qos(prefetch_count=10) # 其他代码... ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

_Romeo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值