springboot使用@KafkaListener监听多个kafka配置_@kafkalistener可以有多个吗

本文介绍了如何在SpringBoot应用中使用@KafkaListener配置多个Kafka消费者,包括2号Kafka配置,详细展示了配置代码,如group-id、sasl配置等。同时,文章提供了一份全面的大数据学习资料,供读者获取学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7

深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年最新大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
img
img
img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

如果你需要这些资料,可以添加V获取:vip204888 (备注大数据)
img

正文

  sasl.jaas.config: xxxx

2号kafka配置

test2:
bootstrap-servers: xxxx:xxxx,xxxx:xxxx,xxxx:xxxx
consumer:
group-id: xxx
sasl.mechanism: xxxx
security.protocol: xxxx
sasl.jaas.config: xxxx


3. 容器工厂配置



package com.zhdx.modules.backstage.config;

import com.google.common.collect.Maps;

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.common.config.SaslConfigs;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.cloud.context.config.annotation.RefreshScope;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;
import org.springframework.kafka.listener.ConcurrentMessageListenerContainer;

import java.util.Map;

/**

  • kafka监听容器工厂配置

  • 拓展其他消费者配置只需配置指定的属性和bean即可
    */
    @EnableKafka
    @Configuration
    @RefreshScope
    public class KafkaListenerContainerFactoryConfig {

    /**

    • test1 kafka配置
      */
      @Value(“${kafka.test1.bootstrap-servers}”)
      private String test1KafkaServerUrls;

    @Value(“${kafka.test1.consumer.group-id}”)
    private String test1GroupId;

    @Value(“${kafka.test1.consumer.sasl.mechanism}”)
    private String test1SaslMechanism;

    @Value(“${kafka.test1.consumer.security.protocol}”)
    private String test1SecurityProtocol;

    @Value(“${kafka.test1.consumer.sasl.jaas.config}”)
    private String test1SaslJaasConfig;
    /**

    • test2 kafka配置
      */
      @Value(“${kafka.test2.bootstrap-servers}”)
      private String test2KafkaServerUrls;

    @Value(“${kafka.test2.consumer.group-id}”)
    private String test2GroupId;

    @Value(“${kafka.test2.consumer.sasl.mechanism}”)
    private String test2SaslMechanism;

    @Value(“${kafka.test2.consumer.security.protocol}”)
    private String test2SecurityProtocol;

    @Value(“${kafka.test2.consumer.sasl.jaas.config}”)
    private String test2SaslJaasConfig;

    /**

    • 默认消费者配置
      */
      @Value(“${kafka.default-consumer.enable-auto-commit}”)
      private boolean enableAutoCommit;

    @Value(“${kafka.default-consumer.poll-timeout}”)
    private int pollTimeout;

    @Value(“${kafka.default-consumer.auto.offset.reset}”)
    private String autoOffsetReset;

    @Value(“${kafka.default-consumer.session.timeout.ms}”)
    private int sessionTimeoutMs;

    @Value(“${kafka.default-consumer.request.timeout.ms}”)
    private int requestTimeoutMs;

    /**

    • test1消费者配置
      */
      public Map<String, Object> test1ConsumerConfigs() {
      Map<String, Object> props = getDefaultConsumerConfigs();
      // broker server地址
      props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, test1KafkaServerUrls);
      // 消费者组
      props.put(ConsumerConfig.GROUP_ID_CONFIG, test1GroupId);
      // 加密
      props.put(SaslConfigs.SASL_MECHANISM, test1SaslMechanism);
      props.put(“security.protocol”, test1SecurityProtocol);
      // 账号密码
      props.put(SaslConfigs.SASL_JAAS_CONFIG, test1SaslJaasConfig);
      return props;
      }

    /**

    • test2消费者配置
      */
      public Map<String, Object> test2ConsumerConfigs() {
      Map<String, Object> props = getDefaultConsumerConfigs();
      // broker server地址
      props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, test2KafkaServerUrls);
      // 消费者组
      props.put(ConsumerConfig.GROUP_ID_CONFIG, test2GroupId);
      // 加密
      props.put(SaslConfigs.SASL_MECHANISM, test2SaslMechanism);
      props.put(“security.protocol”, test2SecurityProtocol);
      // 账号密码
      props.put(SaslConfigs.SASL_JAAS_CONFIG, test2SaslJaasConfig);
      return props;
      }

    /**

    • 默认消费者配置
      */
      private Map<String, Object> getDefaultConsumerConfigs() {
      Map<String, Object> props = Maps.newHashMap();
      // 自动提交(按周期)已消费offset 批量消费下设置false
      props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, enableAutoCommit);
      // 消费会话超时时间(超过这个时间consumer没有发送心跳,就会触发rebalance操作)
      props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, sessionTimeoutMs);
      // 消费请求超时时间
      props.put(ConsumerConfig.REQUEST_TIMEOUT_MS_CONFIG, requestTimeoutMs);
      // 序列化
      props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
      props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
      // 如果Kafka中没有初始偏移量,或者服务器上不再存在当前偏移量(例如,因为该数据已被删除)自动将该偏移量重置成最新偏移量
      props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, autoOffsetReset);
      return props;
      }

    /**

    • 消费者工厂类
      */
      public ConsumerFactory<String, String> initConsumerFactory(Map<String, Object> consumerConfigs) {
      return new DefaultKafkaConsumerFactory<>(consumerConfigs);
      }

    public KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> initKafkaListenerContainerFactory(
    Map<String, Object> consumerConfigs) {
    ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
    factory.setConsumerFactory(initConsumerFactory(consumerConfigs));
    // 是否开启批量消费
    factory.setBatchListener(false);
    // 消费的超时时间
    factory.getContainerProperties().setPollTimeout(pollTimeout);

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以添加V获取:vip204888 (备注大数据)
img

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

需要这份系统化的资料的朋友,可以添加V获取:vip204888 (备注大数据)
[外链图片转存中…(img-ziQJ7kAJ-1713325693856)]

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

Spring Boot应用中使用`@KafkaListener`作为Kafka消息消费者时,如果消费处理逻辑耗时较长,可能导致一个消息被多次消费,这是因为默认情况下,当处理消息的线程阻塞时,Spring会认为任务已经完成并释放对该消息的锁定,这可能会导致重消费。 要解决这个问题,可以采取以下几个步骤: 1. **设置事务管理**:如果你的处理逻辑在一个数据库操作或需要原子性的事务中,可以开启事务,并确保事务完成后才确认消息已被消费。使用Spring Kafka的`KafkaTemplate`或`ReactiveKafkaTemplate`来发送事务确认信号。 ```java @Service public class MyConsumer { @KafkaListener(topics = "myTopic") public void consumeMessage(String message) { try (TransactionalKafkaTemplate<String, String> template = new TransactionalKafkaTemplate<>(kafkaTemplate)) { // 执行耗时操作 doSomething(message); // 发送事务确认 template.send("transaction-results", message + ": processed"); } catch (Exception e) { throw new RuntimeException("Failed to process message", e); } } private void doSomething(String message) { // 业务逻辑 } } ``` 2. **启用Exactly Once模式**:Spring Kafka支持Exactly Once(EO)消费模式,确保每个消息仅被处理一次。你需要配置生产和消费者的ID,并确保生产者始终发送确认。 3. **消息超时设置**:设置`@KafkaListener`的`acknowledgmentMode`属性为`KafkaListener.AckMode.MANUAL_IMMEDIATE`,然后手动处理acks。这样只有在处理完消息后才发送acknowledge,避免消息因超时而自动被重试。 4. **异步处理**:如果可能,将处理逻辑移到单独的任务队列,如Quartz、RabbitMQ等,然后通过定时任务或消息监听器监控处理结果,确认消息已成功处理后再从Kafka中删除。 ```java @Service public class MyConsumer { @KafkaListener(topics = "myTopic", containerFactory = "asyncTaskContainerFactory") public void consumeMessage(String message) { doAsyncProcessing(message); } @Bean public TaskExecutor asyncTaskExecutor() { SimpleAsyncTaskExecutor executor = new SimpleAsyncTaskExecutor(); executor.setRejectedExecutionHandler(RejectedExecutionHandler.DiscardPolicy()); return executor; } @Async public Future<?> doAsyncProcessing(String message) { return myTaskService.process(message); } } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值