@KafkaListener和KafkaTemplate 指定kafka集群

基于@KafkaListener注解的kafka监听代码可以手动指定要消费的kafka集群,这对于需要访问多套kafka集群的程序来说,是有效的解决方案。 这里需要注意的是,此时的消费者配置信息需使用原生kafka的配置信息格式(如:拉取消息数量上限为 ConsumerConfig.MAX_POLL_RECORDS_CONFIG = “max.poll.records”),与自动装载KafkaConsumer时的配置信息格式不同(如:拉取消息数量上限为 spring.kafka.comsumer.max-poll-records),虽然 DefaultKafkaConsumerFactory(java.util.Map<java.lang.String,java.lang.Object> configs)来自spring-kafka 。详情如下:

配置文件

配置参数及其含义,参见 @KafkaListener和KafkaTemplate 的配置使用

依赖项

依赖项的引入,参见 @KafkaListener和KafkaTemplate 的配置使用
特别说明下,其实spring-kafka已包含了kafka-clients

<!-- spring-kafka --> 
<dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
    <version>2.6.0</version>
</dependency>
<!-- kafka-clients --> 
<dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka-clients</artifactId>
    <version>2.6.0</version>
</dependency>

KafkaListenerContainerFactory、KafkaTemplate 配置类

其中可配置多个kafka集群,每个kafka集群生成一个KafkaListenerContainerFactory实例

@Data
@Slf4j
@Configuration
public class KafkaConfig {

    @Resource
    Environment environment;

    /**
     * kafka消费者属性(对应spring-client的spring.kafka.consumer属性)
     * 但请注意:ConsumerConfig是来自kafka-client的原生kafka配置
     */
    @Bean
    public Map<String, Object> consumerProperties() {

        String servers          = environment.getProperty("spring.kafka.consumer.bootstrap-servers");
        String keyDeserializer  = environment.getProperty("spring.kafka.consumer.key-deserializer");
        String valDeserializer  = environment.getProperty("spring.kafka.consumer.value-deserializer");
        String groupId          = environment.getProperty("spring.kafka.consumer.group-id");
        String maxPollRecords   = environment.getProperty("spring.kafka.consumer.max-poll-records");
        String maxPollInterval  = environment.getProperty("spring.kafka.properties.max.poll.interval.ms");
        String sessionTimeout   = environment.getProperty("spring.kafka.properties.session.timeout.ms");
        String jaasConfig = environment.getProperty("spring.kafka.consumer.properties.sasl.jaas.config");

        /// 注意这里,ConsumerConfig是源自原生kafka-client的配置信息格式
        Map<String, Object> properties = new HashMap<>();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, servers);
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG, groupId);

        properties.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, maxPollRecords);
        properties.put(ConsumerConfig.MAX_POLL_INTERVAL_MS_CONFIG, maxPollInterval);
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
        /// props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000");
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "latest");
        properties.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, sessionTimeout);
        properties.put(ConsumerConfig.REQUEST_TIMEOUT_MS_CONFIG, 180000);

        properties.put("security.protocol", "SASL_PLAINTEXT");
        properties.put("sasl.mechanism", "SCRAM-SHA-512");
        properties.put("sasl.jaas.config", jaasConfig);

        log.info("\n---------------------------------------------------\n " +
                "消费者属性:{}" +
                "\n---------------------------------------------------", properties);

        return properties;
    }
    
    @Bean
    public KafkaListenerContainerFactory<?> containerFactory() {

        Integer concurrency = environment.getProperty("spring.kafka.listener.concurrency", Integer.class, 1);
        Integer pollTimeout = environment.getProperty("spring.kafka.listener.poll-timeout", Integer.class, 3000);

        ConcurrentKafkaListenerContainerFactory<String, String> containerFactory = new ConcurrentKafkaListenerContainerFactory<>();
        containerFactory.setConsumerFactory(new DefaultKafkaConsumerFactory<>(this.consumerProperties()));
        /// spring.kafka.listener 属性
        // 批量监听消息
        containerFactory.setBatchListener(true);
        // 消费并发数量
        containerFactory.setConcurrency(concurrency);
        // 消息轮询时限(即等待消息时限)
        containerFactory.getContainerProperties().setPollTimeout(pollTimeout);
        // 手动偏移提交之MANUAL_IMMEDIATE,设置为其他数值会导致监听函数的Acknowledgment ack参数异常
        containerFactory.getContainerProperties().setAckMode(ContainerProperties.AckMode.MANUAL_IMMEDIATE);

        log.info("容器工厂创建完毕:{}", containerFactory.getContainerProperties());
        return containerFactory;
    }

    /**
     * kafka生产者属性
     */
    @Bean
    public Map<String, Object> producerProperties() {

        Map<String, Object> properties = new HashMap<>();

        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, environment.getProperty("spring.kafka.producer.bootstrap-servers"));
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        properties.put(ProducerConfig.ACKS_CONFIG, "all");
        properties.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);
        properties.put(ProducerConfig.RETRIES_CONFIG, 0);
        properties.put(ProducerConfig.RETRY_BACKOFF_MS_CONFIG, 300);
        properties.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);
        properties.put("security.protocol", "SASL_PLAINTEXT");
        properties.put("sasl.mechanism", "SCRAM-SHA-512");
        properties.put("sasl.jaas.config", environment.getProperty("spring.kafka.producer.properties.sasl.jaas.config"));

        return properties;
    }

    /**
     * kafka生产者工厂
     */
    @Bean
    public ProducerFactory<String, String> producerFactory() {

        return new DefaultKafkaProducerFactory<>(this.producerProperties());
    }

    /**
     * kafka生产者客户端
     */
    @Bean
    public KafkaTemplate<String, String> kafkaTemplate(ProducerFactory<String, String> producerFactory) {

        return new KafkaTemplate<>(producerFactory);
    }
    
}

消费者代码

@KafkaListener注解的containerFactory参数引用上述配置类中定义的KafkaListenerContainerFactory实例(bean),也就指定了对应的kafka集群

@Slf4j
@Component
public class KafkaConsumerListen implements BatchMessageListener<String, String> {

    @Autowired
    private Environment environment;

    @Autowired
    private KafkaMsgHandleService msgHandleService;

    @Autowired
    private ThreadPoolTaskExecutor taskExecutor;

    /************************
     *      接收消息
     ************************/
    @Override
    @KafkaListener( containerFactory = "containerFactory", 
    				groupId = "${kafka.groupId}", 
    				topics = "#{'${kafka.topics}'.split(',')}", 
    				concurrency = "${kafka.concurrency}")
    public void onMessage(List<ConsumerRecord<String, String>> records) {
        try {
            final List<String> msgs = records.stream().map(ConsumerRecord::value).collect(Collectors.toList());
            log.info("收到消息体:size={} content:{}", msgs.size(), JSON.toJSONString(msgs));
            /// 处理消息
            msgs.forEach(this::processRecord);
        } catch (Exception e) {
            log.error("KafkaListener_kafka_consume_error.", e);
        }
    }

    /************************
     *      处理消息
     ************************/
    private void processRecord(String msg) {
        taskExecutor.submit(() -> {
            if (!environment.getProperty("kafka1.switch", Boolean.class,true)) {
                log.warn("KafkaListener_turn_off_drop_message.");
                return;
            }
            msgHandleService.handle(msg);
        });
    }
}

生产者代码

@Component
@Slf4j
public class KafKaProducer {

	@Autowired
	private KafkaTemplate kafkaTemplate;

	public void sendMessage(String topic, Object object) {

		/*
		 * 这里的 ListenableFuture 类是 spring 对 java 原生 Future 的扩展增强,是一个泛型接口,用于监听异步方法的回调 而对于
		 * kafka send 方法返回值而言,这里的泛型所代表的实际类型就是 SendResult<K, V>,而这里 K,V 的泛型实际上 被用于
		 * ProducerRecord<K, V> producerRecord,即生产者发送消息的 key,value 类型
		 */
		ListenableFuture<SendResult<String, Object>> future = kafkaTemplate.send(topic, object);

		future.addCallback(new ListenableFutureCallback<SendResult<String, Object>>() {
			@Override
			public void onFailure(Throwable throwable) {
				log.error("发送消息失败:" + throwable.getMessage());
			}
			@Override
			public void onSuccess(SendResult<String, Object> sendResult){
			    // log.info("发送消息成功:" + sendResult.toString());
			}
		});
	}
}
<think> 我们有一个Kafka生产者消费者的Spring Boot代码示例,但用户反馈启动项目后没有发送消息。 需要分析可能的原因并提供解决方案。 观察代码: 生产者:使用`@Scheduled`注解每隔1秒发送一条固定消息到"test-topic"。 消费者:使用`@KafkaListener`监听"test-topic",以批处理方式消费消息,并手动提交偏移量。 可能的原因: 1. KafkaTemplate未正确配置:没有配置bootstrap-servers等必要属性。 2. 消费者配置问题:可能配置了错误的bootstrap-servers或者消费者组初始化问题。 3. 主题不存在:如果主题不存在且未设置自动创建,则发送消息会失败(但生产者应该会报错)。 4. 消费者批量消费设置:消费者使用批量消费,但可能由于某些原因没有触发批处理(例如,等待足够多的消息),导致没有立即消费。 5. 日志级别:可能日志级别设置过高,看不到错误信息。 6. Spring Boot配置问题:可能未启用调度(@EnableScheduling)或未开启Kafka监听端点(@EnableKafka)。 7. 消费者手动提交偏移量:如果之前有消费过,且偏移量已经提交,而生产者发送的消息没有被消费(例如,消费者组偏移量已经提交到最新,但此时没有新消息?这里生产者一直在发,所以不应该) 8. 消费者并发设置:concurrency="2"表示有两个消费者线程,但可能由于分区数不足(如果主题只有一个分区,那么只有一个线程能分配到分区,另一个线程空闲,但不应该完全不消费)。 但是,用户的问题是“没有发消息”,但生产者的方法中有打印语句。所以首先应该确认: - 生产者是否执行了sendMessage方法?是否有打印"生产者发送消息: ..."? 如果没有打印,说明调度任务没有执行。 因此,第一步检查是否添加了`@EnableScheduling`注解。 解决方案步骤: 1. 检查启动类是否添加了必要的注解: ```java @SpringBootApplication @EnableScheduling // 启用定时任务 @EnableKafka // 启用Kafka监听 public class KafkaApplication { public static void main(String[] args) { SpringApplication.run(KafkaApplication.class, args); } } ``` 2. 检查application.properties/application.yml中的Kafka配置是否正确,至少包括: ```properties spring.kafka.bootstrap-servers=localhost:9092 # 如果Kafka服务器不在本地,需修改为正确的IP端口 ``` 3. 检查KafkaTemplate的配置:通常我们使用Spring Boot自动配置的KafkaTemplate,所以需要确保配置了bootstrap-servers。 4. 观察控制台日志: 查看是否有关于Kafka连接、生产者发送消息的错误日志。 5. 如果主题不存在,且没有设置自动创建主题,可以通过以下方式解决: - 手动创建主题:```kafka-topics --create --topic test-topic --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1``` - 或者在配置中设置自动创建主题:`spring.kafka.producer.properties.allow.auto.create.topics=true`(注意:这个配置是生产者的,但通常建议提前创建主题) 6. 对于消费者,如果之前已经消费过消息且提交了偏移量,而生产者发送的消息没有被消费,可能是因为消费者组已经提交的偏移量指向了最新的位置(没有新消息时,消费者不会拉取到消息?但实际上生产者一直在发,所以应该有新消息)。但是,如果消费者组是新的,则会从最新的偏移量开始消费(默认配置),如果生产者还没开始发,那么消费者会等待新消息。但这里生产者已经发了,所以消费者应该能消费到。 7. 注意消费者的方法参数是`List<String> messages`,表示批量消费。批量消费需要满足一定的条件(比如达到batch-size或者等待超时)才会触发消费。可以检查以下配置: ```properties # 设置批量消费的最大记录数 spring.kafka.listener.type=batch spring.kafka.consumer.max-poll-records=50 # 默认是500,这里可以设置小一点 # 如果消息量不够,可以设置等待时间,超过时间即使没有达到最大记录数也会推送 spring.kafka.listener.poll-timeout=5000 ``` 但是,如果生产者每秒只发一条,那么消费者可能需要等待50秒(如果max-poll-records=50)才会批量消费一次。如果想要立即消费,可以设置max-poll-records=1,或者使用单条消费(将方法参数改为String message,并去掉Acknowledgment参数,或者使用单条提交)。 8. 消费者打印日志中是否有线程ID?如果没有,说明消费者方法没有被调用。 建议的排查步骤: 第一步:确认生产者是否执行 - 查看控制台是否有每秒打印一次"生产者发送消息: ..." 第二步:如果没有打印,检查是否添加了@EnableScheduling,并且ProducerService是否是被Spring管理的Bean(有@Service注解)。 第三步:如果生产者有打印,说明消息已经发送,那么检查消费者是否接收到: - 查看是否有消费者的日志输出(注意消费者打印的语句) - 如果没有,检查消费者配置是否正确(bootstrap-servers,groupId等) 第四步:考虑批量消费的配置,如果等待时间过长,可以调整配置,或者先改为单条消费测试。 第五步:查看Kafka服务器状态,主题是否存在,以及消息是否成功发送到主题(可以使用kafka-console-consumer.sh命令行工具消费消息)。 代码修改示例(改为单条消费): ```java @KafkaListener(topics = "test-topic", groupId = "test-group") public void consume(String message) { System.out.println("消费者A (线程ID: " + Thread.currentThread().getId() + ") 消费消息: " + message); } ``` 如果改为单条消费后能立即消费,则说明是批量消费配置导致延迟。 此外,注意消费者使用了手动提交偏移量(Acknowledgment),需要配置为手动提交模式: ```properties spring.kafka.consumer.enable-auto-commit=false ``` 如果没有配置,可能默认是自动提交,而手动提交的代码(ack.acknowledge())不会生效,但也不应该导致消息不被消费。 总结:首先确保生产者执行,然后确保消费者连接到正确的Kafka并分配到分区,最后检查批量消费的配置。 如果按照以上步骤仍然无法解决,请提供更详细的日志信息。 §§相关问题§§ 1. Spring Boot中如何启用定时任务调度? 2. Kafka消费者批量消费消息时如何配置最大拉取记录数超时时间? 3. KafkaTemplate发送消息失败可能的原因有哪些? 4. 如何在Spring Kafka中正确配置手动提交偏移量? 5. 为什么Kafka消费者设置了并发线程却没有分配到分区? </think> ### Spring Kafka生产者未发送消息问题排查指南 #### 核心问题分析 在您的代码中,虽然配置了`@Scheduled`定时发送消息,但未触发发送操作的主要原因可能有: ```mermaid graph TD A[未发送消息] --> B{关键原因} B --> C[未启用调度机制] B --> D[Kafka配置缺失] B --> E[主题自动创建失败] B --> F[消费者偏移量异常] B --> G[生产者异常被忽略] ``` #### 具体排查步骤及解决方案 1. **检查调度功能是否启用** ```java // 启动类必须添加注解 @SpringBootApplication @EnableScheduling // 缺少此注解将导致定时任务失效 public class KafkaApplication { public static void main(String[] args) { SpringApplication.run(KafkaApplication.class, args); } } ``` 2. **验证Kafka基础配置** 在`application.properties`中确保包含: ```properties # 必需的最低配置 spring.kafka.bootstrap-servers=192.168.158.128:9092 spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.listener.ack-mode=manual # 匹配手动提交ACK ``` 3. **添加生产者发送结果处理** ```java @Scheduled(fixedRate = 1000) public void sendMessage() { ListenableFuture<SendResult<String, String>> future = kafkaTemplate.send(TOPIC, MESSAGE); future.addCallback(result -> { System.out.println("发送成功: " + result.getRecordMetadata().offset()); }, ex -> { System.err.println("发送失败: " + ex.getMessage()); // 捕获异常 }); } ``` 4. **消费者配置优化建议** ```java @KafkaListener( topics = "test-topic", groupId = "test-group", concurrency = "2", containerFactory = "kafkaListenerContainerFactory") // 指定容器工厂 public void consumeBatch(List<String> messages, Acknowledgment ack) { // ... 原有逻辑 } ``` 需配置批量监听容器工厂: ```java @Bean public ConcurrentKafkaListenerContainerFactory<String, String> kafkaListenerContainerFactory() { ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>(); factory.setConsumerFactory(consumerFactory()); factory.setBatchListener(true); // 启用批量监听 return factory; } ``` 5. **主题自动创建配置** ```properties # 允许自动创建主题 spring.kafka.admin.properties.auto.create.topics.enable=true # 或手动创建主题 spring.kafka.topics[0].name=test-topic spring.kafka.topics[0].numPartitions=3 ``` #### 关键日志检查点 | 日志类型 | 关键信息 | 排查方向 | |----------------|----------------------------------|----------------------------| | 启动日志 | `@EnableScheduling found` | 调度是否启用 | | 生产者日志 | `ProducerConfig values:` | 配置是否加载正确 | | 消费者日志 | `ConsumerConfig values:` | 消费者组初始化状态 | | 网络连接日志 | `Discovered coordinator` | Kafka集群连接状态 | | 发送错误日志 | `NotLeaderForPartitionException` | 分区领导选举问题 | #### 完整解决方案流程 1. 在启动类添加`@EnableScheduling` 2. 配置文件添加Kafka服务器地址序列化器 3. 生产者添加发送结果回调 4. 配置批量监听容器工厂 5. 启动后检查日志: ```bash grep -E 'ProducerConfig|ConsumerConfig|Scheduled' application.log ``` 6. 使用Kafka命令验证主题状态: ```bash bin/kafka-topics.sh --describe --topic test-topic --bootstrap-server 192.168.158.128:9092 ``` > **注意**:如果使用虚拟环境(如VM中的Kafka),需检查防火墙设置端口转发规则,确保9092端口可访问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值