“ID串行化”是如何保证消息顺序性的?

博客介绍为保证群消息时序一致的“ID串行化”方法,即让同群gid消息落于同一服务器处理。阐述互联网高可用分层架构,重点介绍服务层上下游细节。通过对连接池改动,用id取模关联服务连接,保证同业务id请求落于同一服务,且不影响服务可用性与负载均衡。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在《消息顺序性为何这么难?》中,介绍了一种为了保证“所有群友展示的群消息时序都是一致的”所使用的“ID串行化”的方法:让同一个群gid的所有消息落在同一台服务器上处理


ID串行化是如何实现的呢?


互联网高可用常见分层架构

640?wx_fmt=png

客户端,反向代理层,接入层,服务层,存储层,这是互联网常见的高可用分层架构。

画外音:这个图用过好多次。


这里的“服务层”至关重要,ID串行化保证的是,同一个群gid的消息落在同一个服务上。

画外音:服务集群有很多节点,如果能落在同一个服务节点上,就可以利用这个服务节点做消息串行化。


服务层上下游细节

服务一般由RPC框架实现,上游调用方是多线程程序,通过RPC-client访问服务,而RPC-client内部又通过连接池connection-pool来访问的。

画外音:为了保证高可用,连接池会对集群中的每个服务都建立连接。

640?wx_fmt=png
如上图:

(1)上游是业务应用;

(2)下游是服务集群;

(3)业务应用,它又分为了这么几个部分:

 - 上层是任务队列(粉色)

 - 中间是工作线程(蓝色),每个工作线程完成实际的业务任务,典型的工作任务是通过服务连接池进行RPC调用;

 - 下层是服务连接池(绿色),所有的RPC调用都是通过服务连接池往下游服务发请求执行;

画外音:橙色是连接池中的一条连接。

 

工作线程的典型工作流是这样的:

void work_thread_routine(){

// 获取任务

Task t = TaskQueue.pop(); 

// 任务逻辑处理,组成一个网络包packet

Packet p = MakePacket(t);


// 从Service连接池获取一个Service连接

ServiceConnection c = CPool.GetConnection();

// 通过Service连接发送报文执行RPC请求

c.Send(p); 

// 将Service连接放回Service连接池

CPool.PutConnection(c); 

}

 

如何保证同一个群gid的消息落在同一个服务上呢?

对连接池进行少量改动,获取连接时:

CPool.GetConnection()

画外音:返回任何一个可用服务连接。

升级为

CPool.GetConnection(long id)

画外音:返回id取模相关联的服务连接。


只要传入群gid,就能够保证同一个群的请求获取到同一个连接,从而使请求落到同一个服务上


需要注意的是,连接池不关心传入的long id是什么业务含义

(1)传入群gid,同gid的请求落在同一个服务上;

(2)传入用户uid,同uid的请求落在同一个服务上;

(3)传入任何业务xid,同业务xid的请求落在同一个服务上;


ID串行化访问服务,同一个id访问同一个服务,当服务挂掉时,会不会受影响服务可用性?

不会,当有下游服务挂掉的时候,连接池能够检测到连接的可用性,取模时要把不可用的服务连接排除掉。

 

取模访问服务,是否会影响各连接上请求的负载均衡?

不会,只要数据访问id是均衡的,从全局来看,由id取模获取各连接的概率也是均等的,即负载是均衡的。


获取连接,ID取模,希望大家有收获。


640?wx_fmt=jpeg

架构师之路-分享可落地的技术文章


相关推荐:

离不开的微服务架构,脱不开的RPC细节(值得收藏)

究竟啥才是互联网架构“高可用”

### RabbitMQ 如何确保消息顺序处理 RabbitMQ 在默认情况下并不保证全局的消息顺序,但在特定的场景下可以通过合理的配置和设计来实现消息的有序消费。以下是一些典型场景及其对应的解决方案。 --- #### 单队列单消费者模式 在某些业务场景中,要求严格的消息顺序,例如金融交易、日志回放等。在这种情况下,可以采用 **单队列单消费者** 的方式,即一个队列只绑定一个消费者,这样可以确保消息按照入队顺序被消费[^1]。 - 消息进入队列的顺序是固定的。 - 消费者串行化处理每一条消息,不会出现并发导致的乱序问题。 该方法虽然能保证顺序,但牺牲了系统的吞吐能力和并行处理能力。 ```python # 示例:设置 prefetch_count=1 以限制并发消费数量 channel.basic_qos(prefetch_count=1) ``` --- #### 多队列多消费者之间的顺序控制 在分布式系统中,多个消费者同时消费多个队列时,无法直接保证跨队列的顺序。为了实现一定程度的顺序,可以采用如下策略: - **按业务逻辑分片**:将具有相同业务标识(如用户ID)的消息路由到同一个队列中,再由该队列的唯一消费者进行处理。例如使用 `x-modulus-hash` 插件或自定义一致哈希算法实现消息分发[^2]。 - **引入外部协调机制**:通过数据库、Redis 或 ZooKeeper 等组件记录当前处理进度,确保后续消息在前置消息处理完成后再执行。 这种方式适用于订单处理、用户行为追踪等需要部分有序的场景。 --- #### 防止网络波动导致的重试乱序 当消费者处理完消息后发送 ACK 给 RabbitMQ,若在网络不稳定的情况下 ACK 丢失,RabbitMQ 会重新投递该消息。这可能导致原本已经处理过的消息再次出现在队列尾部,从而破坏原有的顺序[^3]。 为了解决这个问题,可采取以下措施: - 启用幂等处理:消费者端对每条消息进行去重校验,避免重复处理造成数据错误。 - 使用死信队列(DLX)捕获多次失败的消息,防止其反复进入主队列影响顺序。 ```python # 设置最大重试次数并绑定死信队列 args = {"x-dead-letter-exchange": "dlx_exchange"} channel.queue_declare(queue='main_queue', arguments=args) ``` --- #### 延迟队列与定时任务中的顺序保障 对于需要延迟处理的消息,如超时未支付自动取消订单,可以在 RabbitMQ 中结合 TTL 和 DLX 实现延迟队列。由于每条消息设置了相同的 TTL,它们会按照入队顺序依次过期并转发到 DLX,从而保持顺序。 - 所有消息的 TTL 相同,确保出队顺序一致。 - 若 TTL 不同,则需借助插件(如 rabbitmq_delayed_message_exchange)实现更灵活的调度。 --- #### 总结 | 场景 | 解决方案 | 说明 | |------|----------|------| | 单队列单消费者 | 使用单个消费者消费消息 | 顺序强,能较低 | | 多队列多消费者 | 按业务 ID 分片至同一队列 | 局部顺序,适合分布式系统 | | 网络波动重试 | 幂等处理 + 死信队列 | 避免因重试导致乱序 | | 延迟处理 | TTL + DLX 或延迟插件 | 控制消息出队时间顺序 | ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值