多partition下无法保障消息的顺序性


 

由于问题比较宽泛,需要针对不同场景来分析,以下所有的分析都是基于同一个partition下的场景细化,多partition下无法保障消息的顺序性,但是碰到如下场景还是需要调整参数。

场景一:设置了retries>0,并且max.in.flight.requests.per.connection>1

先说明下这两个参数的含义:

retries

生产者从服务器收到的错误有可能是临时性的错误(比如分区找不到首领)。在这种情况下,retries 参数的值决定了生产者可以重发消息的次数,如果达到这个次数,生产者会放弃重试并返回错误。

默认情况下,生产者会在每次重试之间等待 100ms,不过可以通过 retry.backoff.ms 参数来改变这个时间间隔。建议在设置重试次数和重试时间间隔之前,先测试一下恢复一个崩溃节点需要多少时间(比如所有分区选举出首领需要多长时间),让总的重试时间比 Kafka 集群从崩溃中恢复的时间长,否则生产者会过早地放弃重试。不过有些错误不是临时性错误,没办法通过重试来解决(比如“消息太大”错误)。

max.in.flight.requests.per.connection

该参数指定了生产者在收到服务器响应之前可以发送多少个消息。它的值越高,就会占用越多的内存,不过也会提升吞吐量。把它设为 1 可以保证消息是按照发送的顺序写入服务器的,即使发生了重试。

这种场景下无法保障单一partition的有序,一般来说要保障消息的有序性,对于消息的可靠性也是有要求的,所以一般retries可以设置为大于0,但是max.in.flight.requests.per.connection设置为1即可,不过这样就有一个问题,导致了消息的吞吐量大大降低。

再发散一下,max.in.flight.requests.per.connection保障消息有序的逻辑源码时如何实现的呢?

在生产者消息发送线程Sender里面sendProducerData方法,里面有关于保障消息有序的一段逻辑如下:

		//如果需要保证消息的强顺序性,则缓存对应 topic 分区对象,防止同一时间往同一个 topic 分区发送多条处于未完成状态的消息
        if (guaranteeMessageOrder) {
            // 将每个batch的分区对象信息加入到mute集合,采取Set实现,重复的topicpartition信息不会被加入
            for (List<ProducerBatch> batchList : batches.values()) {
                for (ProducerBatch batch : batchList)
                    this.accumulator.mutePartition(batch.topicPartition);
            }
        }

实际上就是将本批次消息所在的分区信息添加到一个集合中,以保障每个topic下的该分区只有一个批次发送,如下:

 public void mutePartition(TopicPartition tp) {
        muted.add(tp);
    }

场景二:需要提升吞吐量max.in.flight.requests.per.connection设置大于1

此场景下业务要保障消息的吞吐量,那么max.in.flight.requests.per.connection必然就会选择更大的一个阈值,但是此场景还能保障消息有序性吗?

答案是肯定的,可以设置enable.idempotence=true,开启生产者的幂等生产,可以解决顺序性问题,并且允许max.in.flight.requests.per.connection设置大于1

### 消息队列的顺序保证及其实现方案 #### RabbitMQ 的顺序保证 RabbitMQ 默认情况下并不严格保证消息顺序,但在某些配置下可以实现这一目标。当使用单个消费者(Consumer)时,RabbitMQ 可以通过 FIFO(先进先出)的方式确保消息按序处理[^1]。然而,一旦引入个消费者或者复杂的路由规则,则可能会破坏消息顺序。 为了增强顺序保障,可以在生产者端启用 Confirm 模式并结合 Consumer Acknowledgment 来确认每条消息的成功传递与消费[^3]。这种方式虽然提高了可靠,但也增加了系统的复杂度和延迟。 另外需要注意的是,在分布式环境中由于网络分区等问题仍可能导致部分场景下的乱序现象发生。因此对于强一致需求较高的业务逻辑建议采用其他更适合的技术栈或架构设计。 ```python # 启用Confirm模式示例代码 import pika connection = pika.BlockingConnection(pika.ConnectionParameters('localhost')) channel = connection.channel() # 开启发布确认 channel.confirm_delivery() try: channel.basic_publish(exchange='my_exchange', routing_key='my_routing_key', body='Message content') except Exception as e: print(f"Publish failed due to {e}") finally: connection.close() ``` #### Kafka 的顺序保证 相比之下,Kafka 对于同一个 Partition 内部能够很好地保持消息顺序 。只要所有的读写操作都限定在同一 partition 中 , 那么就能做到完全有序地交付给下游应用 [^2]. 这是因为Kafka将每个Topic划分为若干个Partition(分区),而每一个Partition内部的数据存储结构是一个追加日志文件(Append-only Log). 当Producer向某个特定partition发送记录时,它总是会被附加到最后;同样地,Servers也会按照它们到达的时间依次从该位置开始提供服务. 不过值得注意的一点是: 如果存在线程并发写入相同主题的不同分区情况 下,则无法全局维持整体序列化特. 此外,重新平衡(rebalance)期间也可能暂时打破原有的排列关系直到新的领导副本选举完成为止. ```java // Java Producer 设置Key以固定进入同一Partition Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); Producer<String, String> producer = new KafkaProducer<>(props); for (int i = 0; i < messages.length(); ++i){ producer.send(new ProducerRecord<>("topicName","sameKeyForOrderGuarantee",messages[i])); } producer.close(); ``` #### ActiveMQ 的顺序保证 ActiveMQ 提供了种策略用来支持消息次序管理。最常用的方法之一便是利用独占消费者(Exclusive Consumers): 即指定某队列仅允许单一客户端订阅连接从而杜绝因竞争引发的潜在混乱局面出现.[^4] 此外还有优先级队列(Priority Queues)以及持久化选项可供选择进一步优化传输过程中的稳定表现。但无论如何调整参数设定都不能彻底消除所有可能出现的影响因素比如硬件故障或是人为误操作等等不可控变量的存在始终会对最终效果造成一定程度干扰。 ```xml <!-- XML Configuration Example For Exclusive Consumer --> <queue name="ORDERED_QUEUE"> <exclusive>true</exclusive> </queue> ``` 综上所述,RabbitMQ主要依靠单一消费者的FIFO模型加上额外的功能扩展来达成有限制条件下的连续供给承诺 ;Kafka凭借其独特的分片设计理念天然具备局部区域内的连贯展现能力;至于ActiveMQ则是借助专属权限锁定手段力求简化交互流程减少不确定风险源 . 不同平台各有侧重适用范围也有所差异具体选用哪一种还需依据实际项目背景综合考量决定最佳实践路径 .
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值