【Java面试专题】消息中间件篇

目录

一、RabbitMQ 

1.1 RabbitMQ如何保证消息不丢失?

1.2 RabbitMQ消息的重复消费问题如何解决?

1.3 RabbitMQ中死信交换机了解吗?(RabbitMQ延迟队列有了解过吗?)

1.4 如果有100万消息堆积在MQ,如何解决?

1.5 RabbitMQ的高可用机制了解吗?

二、Kafka

2.1 Kafka是如何保证消息不丢失?

2.2 Kafka中消息的重复消费问题如何解决?

2.3 Kafka是如何保证消费的顺序性?

2.4 Kafka的高可用机制了解吗?

2.5 Kafka数据清理机制了解吗?

2.6 Kafka中实现高性能的设计有了解过吗?


本篇内容大纲: 

一、RabbitMQ 

1.1 RabbitMQ如何保证消息不丢失?

回答:

我们使用RabbitMQ来确保MySQL和Redis间数据双写的一致性,这要求我们实现消息的高可用性,具体措施包括:

  1. 开启生产者确认机制,确保消息能被送达队列,如有错误则记录日志并修复数据。

  2. 启用持久化功能,保证消息在未消费前不会在队列中丢失,需要对交换机、队列和消息本身都进行持久化。

  3. 对消费者开启自动确认机制,并设置重试次数。例如,我们设置了3次重试,若失败则将消息发送至异常交换机,由人工处理。

 

1.2 RabbitMQ消息的重复消费问题如何解决?

回答

我们遇到过消息重复消费的问题,处理方法是:

  • 设置消费者为自动确认模式,如果服务在确认前宕机,重启后可能会再次消费同一消息。

  • 通过业务唯一标识检查数据库中数据是否存在,若不存在则处理消息,若存在则忽略,避免重复消费。

追问:那你还知道其他的解决方案吗?

回答

是的,这属于幂等性问题,可以通过以下方法解决:

  • 使用Redis分布式锁或数据库锁来确保操作的幂等性。

1.3 RabbitMQ中死信交换机了解吗?(RabbitMQ延迟队列有了解过吗?)

回答

了解。我们项目中使用RabbitMQ实现延迟队列,主要通过死信交换机和TTL(消息存活时间)来实现。

  • 消息若超时未消费则变为死信,队列可绑定死信交换机,实现延迟功能。

  • 另一种方法是安装RabbitMQ的死信插件,简化配置,在声明交换机时指定为死信交换机,并设置消息超时时间。

1.4 如果有100万消息堆积在MQ,如何解决?

回答

若出现消息堆积,可采取以下措施:

  1. 提高消费者消费能力,如使用多线程。

  2. 增加消费者数量,采用工作队列模式,让多个消费者并行消费同一队列。

  3. 扩大队列容量,使用RabbitMQ的惰性队列,支持数百万条消息存储,直接存盘而非内存。

1.5 RabbitMQ的高可用机制了解吗?

回答

我们项目在生产环境使用RabbitMQ集群,采用镜像队列模式,一主多从结构。

  • 主节点处理所有操作并同步给从节点,若主节点宕机,从节点可接替为主节点,但需注意数据同步的完整性。

追问:那出现丢数据怎么解决呢?

回答

使用仲裁队列,主从模式,基于Raft协议实现强一致性数据同步,简化配置,提高数据安全性。

二、Kafka

2.1 Kafka是如何保证消息不丢失?

回答

Kafka保证消息不丢失的措施包括:

  1. 生产者使用异步回调发送消息,设置重试机制应对网络问题。

  2. 在Broker中通过复制机制,设置acks参数为all,确保消息在所有副本中都得到确认。

  3. 消费者手动提交消费成功的offset,避免自动提交可能导致的数据丢失或重复消费。

2.2 Kafka中消息的重复消费问题如何解决?

回答

通过以下方法解决Kafka中的重复消费问题:

  • 禁用自动提交offset,手动控制offset提交时机。

  • 确保消息消费的幂等性,例如通过唯一主键或分布式锁。

2.3 Kafka是如何保证消费的顺序性?

回答

Kafka默认不保证消息顺序性,但可以通过以下方法实现:

  • 将消息存储在同一个分区,通过指定分区号或相同的业务key来实现。

2.4 Kafka的高可用机制了解吗?

回答

Kafka的高可用性主要通过以下机制实现:

  • 集群部署,多broker实例,单点故障不影响整体服务。

  • 复制机制,每个分区有多个副本,leader和follower,leader故障时从follower中选举新leader。

追问:解释一下复制机制中的ISR?

回答

ISR(In-Sync Replicas)指与leader保持同步的follower副本。

  • 当leader故障时,优先从ISR中选举新leader,因为它们数据一致性更高。

2.5 Kafka数据清理机制了解吗?

回答

Kafka的数据清理包括:

  • 基于消息保留时间的清理。

  • 基于topic数据大小的清理,可配置删除最旧消息。

2.6 Kafka中实现高性能的设计有了解过吗?

回答

Kafka高性能设计包括:

  • 消息分区,提升数据处理能力。

  • 顺序读写,提高磁盘操作效率。

  • 页缓存,减少磁盘访问。

  • 零拷贝,减少数据拷贝和上下文切换。

  • 消息压缩,减少IO负载。

  • 分批发送,降低网络开销。

 



🌸  我们的目标应该是不断努力成为更好的人,并借着更远大的梦想扩张自己的界限  🌸

——《人生不设限》

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值