Kafka中@KafkaListener不自动监听消费数据了

本文介绍了在Kafka中遇到消费者不再自动消费消息的问题及其解决方案。问题源于多个topic在@KafkaListener注解中未设置唯一id。通过查看源码了解到,id是管理容器的唯一标识。作者在每个@KafkaListener注解中添加了唯一的id后,成功解决了问题。同时,分享了Linux下Kafka的基本操作命令,包括查看集群状态、创建主题、生产和消费消息等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Kafka中不自动消费的问题解决方案

查看源码

如果项目中有多个不同的topic需要消费,那么一定要注意@KafkaListener中id的配置,源码中如下

/**
	 * The unique identifier of the container managing for this endpoint.(管理此端点的容器的唯一标识符 )
	 * <p>If none is specified an auto-generated one is provided.
	 * @return the {@code id} for the container managing for this endpoint.
	 * @see org.springframework.kafka.config.KafkaListenerEndpointRegistry#getListenerContainer(String)
	 */
	String id() default "";

上边源码中提到了,id是容器的唯一标识符。

我自己遇到的问题

评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值