- 有几百万消息持续积压几小时,怎么解决?
- 如何解决消息队列的延时以及过期失效问题?
- 消息队列满了以后该怎么处理?
有几百万消息持续积压几小时,怎么解决?
如果你积压了几百万到上千万的数据,即使消费者恢复了,也需要大概1小时的时间才能恢复过来
一般这个时候,只能操作临时紧急扩容了,具体操作步骤和思路如下:
1)先修复consumer的问题,确保其恢复消费速度,然后将现有cnosumer都停掉
2)新建一个topic,partition是原来的10倍,临时建立好原先10倍或者20倍的queue数量
3)然后写一个临时的分发数据的consumer程序,这个程序部署上去消费积压的数据,消费之后不做耗时的处理,直接均匀轮询写入临时建立好的10倍数量的queue
4)接着临时征用10倍的机器来部署consumer,每一批consumer消费一个临时queue的数据
5)这种做法相当于是临时将queue资源和consumer资源扩大10倍,以正常的10倍速度来消费数据
6)等快速消费完积压数据之后,得恢复原先部署架构,重新用原先的consumer机器来消费消息
总结:就是将原有消费者转为生产者,将消息放入新的队列(更多,更快),在进行消费
2 如何解决消息队列的延时以及过期失效问题?
一般不会设置消息过期
3 消息队列满了以后该怎么处理?
凉拌
快速消费掉所有的消息。然后走第一个方案,到了晚上再补数据吧。