SpringBoot --日志输出控制

文章介绍了日志记录的格式,包括PID用于标识进程,以及SpringBoot中自定义的日志显示方式。此外,还详细讨论了如何设置日志文件,如指定文件名为server.log,并详细配置了logback的rollingpolicy,限制每个日志文件的最大大小为3KB,且按照日期和序列号进行滚动存储。
1.日志格式

日志的记录格式:
在这里插入图片描述

  • PID: 进程ID,用于表明当前操作所处的进程,当多服务同时记录日志时,该值可用于协助程序员调试程序
  • 所属类/接口名: 当前显示信息为SpringBoot重写后的信息,名称过长时,简化包名书写为首字母,甚至直接删除
logging:
	pattern:
    	console: "%d %clr(%p) --- [%16t] %clr(%-40.40c){cyan} : %m %n"

在这里插入图片描述

2.日志文件
  • 设置日志文件:
logging:
	file:
    	name: server.log
  • 日志文件详细配置:
logging:
	logback:
    	rollingpolicy:
        	max-file-size: 3KB
            file-name-pattern: server.%d{yyyy-MM-dd}.%i.log
Spring Boot 中集成 Kafka 的开发流程包括以下几个关键步骤,涵盖从环境准备到生产者与消费者的实现,以及测试验证等环节。 ### 3.1 添加 Maven 依赖 在 `pom.xml` 文件中添加 Kafka 相关的依赖项,Spring Boot 提供了对 Kafka 的自动配置支持,主要依赖为 `spring-kafka`。添加以下依赖以支持 Kafka 的集成: ```xml <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> ``` 该依赖将自动引入 Kafka 客户端库及相关 Spring Boot 自动配置,简化 Kafka 的集成与使用过程[^1]。 --- ### 3.2 配置 Kafka 属性 在 `application.properties` 或 `application.yml` 文件中配置 Kafka 的基本属性,包括 Kafka 服务器地址、生产者与消费者的默认配置。以下是一个典型的配置示例: ```properties spring.kafka.bootstrap-servers=localhost:9092 spring.kafka.consumer.group-id=my-group spring.kafka.consumer.auto-offset-reset=earliest ``` 这些配置指定了 Kafka Broker 的地址、消费者的组 ID 以及消费者在没有初始偏移量时的行为策略。通过这些配置,Spring Boot 可以自动创建 Kafka 的生产者和消费者实例。 --- ### 3.3 实现 Kafka 生产者 通过注入 `KafkaTemplate` 实现消息的发送功能。定义一个服务,使用 `KafkaTemplate` 向指定的 Kafka Topic 发送消息: ```java @Service public class KafkaProducerService { private final KafkaTemplate<String, String> kafkaTemplate; public KafkaProducerService(KafkaTemplate<String, String> kafkaTemplate) { this.kafkaTemplate = kafkaTemplate; } public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); } } ``` 该封装了 Kafka 消息的发送逻辑,通过调用 `send` 方法即可将消息发送到指定的 Kafka Topic[^1]。 --- ### 3.4 实现 Kafka 消费者 使用 `@KafkaListener` 注解监听指定的 Kafka Topic,并处理接收到的消息。定义一个消费者,实现消息的消费逻辑: ```java @Component public class KafkaConsumerService { private static final Logger logger = LoggerFactory.getLogger(KafkaConsumerService.class); @KafkaListener(topics = "my-topic", groupId = "my-group") public void consume(String message) { logger.info("接收到消息: {}", message); } } ``` 该通过 `@KafkaListener` 注解监听名为 `my-topic` 的 Topic,并在 `consume` 方法中处理接收到的消息。消费者组 ID 的设置确保了多个消费者实例之间的负载均衡。 --- ### 3.5 测试 Kafka 集成 通过 REST 接口或单元测试验证 Kafka 的集成是否正常工作。定义一个 REST 控制器,调用 Kafka 生产者发送消息,并验证消费者是否能正确接收: ```java @RestController @RequestMapping("/kafka") public class KafkaController { private final KafkaProducerService kafkaProducerService; public KafkaController(KafkaProducerService kafkaProducerService) { this.kafkaProducerService = kafkaProducerService; } @GetMapping("/send") public ResponseEntity<String> sendMessage() { kafkaProducerService.sendMessage("my-topic", "Hello Kafka"); return ResponseEntity.ok("消息已发送"); } } ``` 启动应用后,访问 `/kafka/send` 接口,消费者应能接收到发送的消息,并输出日志信息。该方式可用于验证 Kafka 的集成流程是否正常运行。 --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值