Spring集成Kafka

文章介绍了如何使用Kafka作为中间件处理大规模日志存储,强调了Kafka的高吞吐量、数据压缩和存储效率。通过详细步骤展示了Kafka的安装、基本操作以及Spring框架的集成,包括创建topic、发送与接收消息。最后给出了在项目中发送和消费日志的示例代码。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

我负责的其中一个项目,接口的交互量在千万级/d,所以要存储大量的日志,为了防止日志的存储影响到系统的性能,所以在技术选型就决定了使用Kafka中间件和一个日志存储系统来负责日志的存储。

使用Kafka 的优点:
1.Kafka 是一种高吞吐量的分布式消息系统,可以支持水平扩展,非常适合存储大量的日志数据。
2.Kafka 使用数据增量的方式存储日志,并使用了 Zig-Zag 编码方式对数据进行压缩,从而极大地减少其占用的磁盘空间大小。
3.Kafka 的消息存储格式使用了 batch 方式,将一些公共信息进行提取,保证只需要存储一份,从而减少了每条消息的存储空间。
4.Kafka 的消息格式中包含了属性字段和 header,属性字段用于存储当前消息 key 和 value 的压缩方式,而 header 则供用户添加一些动态的属性,从而实现一些定制化的工作。

1.下载Kafka

下载地址
在这里插入图片描述

2.解压文件夹

在这里插入图片描述

3.检测Kafka是否可用

启动zookeeper

进入到bin目录下,执行cmd进入命令行
zookeeper-server-start.bat ../../config/zookeeper.properties
在这里插入图片描述
没报错,没退出此窗口即启动成功

启动Kafka-server

进入到bin目录下,执行cmd进入命令行
kafka-server-start.bat ../../config/server.properties
在这里插入图片描述

基本操作Kafka指令

创建topic

执行下面指令创建一个名为test-mytopic的topic
kafka-topics.bat --create --topic test-mytopic --bootstrap-server localhost:9092
在这里插入图片描述

向topic发送数据

执行下面指令向topic发送数据
kafka-console-producer.bat --topic test-mytopic --bootstrap-server localhost:9092
在这里插入图片描述

订阅topic获取数据

执行下面指令订阅topic
kafka-console-consumer.bat --topic test-mytopic --from-beginning --bootstrap-server localhost:9092
在这里插入图片描述

4.Spring 集成 Kafka

pom文件引入依赖

		<dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
        </dependency>
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-clients</artifactId>
            <version>3.3.0</version>
        </dependency>
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka-test</artifactId>
            <scope>test</scope>
        </dependency>

application配置

spring:
  kafka:
  	// config/consumer.properties配置的bootstrap.servers
    bootstrap-servers: localhost:9092
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
    consumer:
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      //这个可以和config/consumer.properties里的group.id不同
      group-id: test-consumer-group

向topic发送信息

模拟系统调用接口,忽略接口调用逻辑,当接口调用结束后,通过Kafka向Topic发送此次调用接口的相关消息

@RestController
public class KafkaController {
	@Autowired
    KafkaTemplate<String, Object> kafka;
    
    @RequestMapping("OrderTrans")
    public String OrderTransIntf(HttpServletRequest request, @RequestBody String requestParams) {
        try {
			//处理接口逻辑
		} catch (Exception e) {
			
		}
        String serialNo = UUIDManager.generateSerialnoByUUID();
    	JSONObject order = new JSONObject();
    	order.put("serialNo", serialNo);
    	order.put("sourceRequestData", requestParams);
    	order.put("logInfo", "订单相关信息...");
        kafka.send("OrderLogHandlerTopic", order.toJSONString());
        return serialNo;
    }
}

订阅topic接收信息

@Configuration
public class KafkaConsumerConfig {
 	@KafkaListener(topics = "OrderLogHandlerTopic")
    public void saveLog(String message) {
        System.out.println("接收到消息:" + message);
        //保存日志操作
        OrderLogDao.save(message);
        System.out.println("保存成功");
    }
}

到此为止,整个Kafka中间件就被我们集成到项目中并使用起来了,上述代码为我个人的精简版,中间还有各种复杂的逻辑处理,根据项目要求可以自行添加

创作不易,一键三连更开心!
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

沉淀顶峰相见的PET

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值