springboot中使用logback将日志写入到ELK平台

本文介绍如何在SpringBoot项目中配置Logstash日志收集器,通过Logback将日志发送至ELK(Elasticsearch、Logstash、Kibana)平台进行集中管理和分析。详细步骤包括pom.xml依赖配置、logback-spring.xml日志配置、Logstash配置及启动,最终实现日志的实时收集与图形化展示。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ELK 是由elasticsearch 、logstash、kibana 三个单词的首字母组成

elasticsearch: 一款优秀的开源分布式搜索引擎框架,基于lucence.

logstash:开源的日志分析、过滤、收集工具

kibana: ES的图形化用户界面

这三款产品都是 ES 家族的产物,官网: https://www.elastic.co 

 

springboot中使用logback将日志写入到ELK平台

1、pom.xml配置

<!--集成 logstash 日志-->
  <dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder</artifactId>
    <version>5.3</version>
  </dependency>

2、logback-spring.xml配置

<?xml version="1.0" encoding="UTF-8"?>
 
<configuration>
  <!--指定property属性变量-->
  <property name="log.path" value="/logs/logdemo"/>
 
  <!-- 日志输出格式
   %d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n
   -->
  <!-- 控制台 appender-->
  <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
    <encoder>
      <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n</pattern>
      <charset>UTF-8</charset>
    </encoder>
  </appender>
 
 
  <!-- 文件 滚动日志 (all)-->
  <appender name="allLog"  class="ch.qos.logback.core.rolling.RollingFileAppender">
    <!-- 当前日志输出路径、文件名 -->
    <file>${log.path}/all.log</file>
    <!--日志输出格式-->
    <encoder>
      <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n</pattern>
      <charset>UTF-8</charset>
    </encoder>
    <!--历史日志归档策略-->
    <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
      <!-- 历史日志: 归档文件名 -->
      <fileNamePattern>${log.path}/%d{yyyy-MM, aux}/all.%d{yyyy-MM-dd}.%i.log.gz</fileNamePattern>
      <!--单个文件的最大大小-->
      <maxFileSize>64MB</maxFileSize>
      <!--日志文件保留天数-->
      <maxHistory>15</maxHistory>
    </rollingPolicy>
 
 
  </appender>
 
 
  <!-- 文件 滚动日志 (仅error)-->
  <appender name="errorLog"  class="ch.qos.logback.core.rolling.RollingFileAppender">
    <!-- 当前日志输出路径、文件名 -->
    <file>${log.path}/error.log</file>
    <!--日志输出格式-->
    <encoder>
      <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n</pattern>
      <charset>UTF-8</charset>
    </encoder>
 
    <!--历史日志归档策略-->
    <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
      <!-- 历史日志: 归档文件名 -->
      <fileNamePattern>${log.path}/%d{yyyy-MM, aux}/error.%d{yyyy-MM-dd}.%i.log.gz</fileNamePattern>
      <!--单个文件的最大大小-->
      <maxFileSize>64MB</maxFileSize>
      <!--日志文件保留天数-->
      <maxHistory>15</maxHistory>
    </rollingPolicy>
 
    <!-- 此日志文档只记录error级别的  level过滤器-->
     <filter class="ch.qos.logback.classic.filter.LevelFilter">
       <level>error</level>
       <onMatch>ACCEPT</onMatch>
       <onMismatch>DENY</onMismatch>
    </filter>
 
 
 
  </appender>
 
 
  <!-- 文件 异步日志(async) -->
 <appender name="ASYNC" class="ch.qos.logback.classic.AsyncAppender"
            immediateFlush="false" neverBlock="true">
      <!-- 不丢失日志.默认的,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
     <discardingThreshold>0</discardingThreshold>
      <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
      <queueSize>1024</queueSize>
      <neverBlock>true</neverBlock>
      <!-- 添加附加的appender,最多只能添加一个 -->
      <appender-ref ref="allLog" />
  </appender>
 
 
 
  <!--输出到logstash的appender-->
  <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
    <!--可以访问的logstash日志收集端口-->
    <destination>192.168.11.10:4560</destination>
    <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder">
      <!--自定义字段,区分应用名称-->
      <customFields>{"appname":"logdemo"}</customFields>
    </encoder>
 
  </appender>
 
 
 
  <!-- root 级别的配置 -->
  <root level="INFO">
    <appender-ref ref="CONSOLE" />
    <!--<appender-ref ref="allLog" />-->
    <appender-ref  ref="ASYNC"/>
    <appender-ref ref="errorLog" />
 
    <appender-ref ref="logstash" />
  </root>
 
  <!--可输出mapper层sql语句等-->
  <logger name="com.tingcream" level="debug">
  </logger>
 
  <!--输出jdbc 事务相关信息-->
  <logger name="org.springframework.jdbc" level="debug">
  </logger>
 
</configuration>

 

其中的关键配置是:

  <!--输出到logstash的appender-->
  <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
    <!--可以访问的logstash日志收集端口-->
    <destination>192.168.11.10:4560</destination>
    <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder">
      <!--自定义字段,区分应用名称-->
      <customFields>{"appname":"logdemo"}</customFields>
    </encoder>
  </appender>
<!-- root 级别的配置 -->
  <root level="INFO">
    <appender-ref ref="logstash" />
  </root>

3、Centos中安装logstash工具

tar -zxvf logstash-6.8.10.tar.gz  -C /usr/local/
cd  /usr/local/
mv logstash-6.8.10 logstash #重命名


收集springboot项目中的日志 
cd /usr/local/logstash  && mkdir conf.d
cd conf.d
vi 1.springboot-es-log.conf,内容如下

input {
 tcp {
  mode => "server"
  host => "0.0.0.0"
  port => 4560
  codec => json_lines
 
 } 
}
output {
 elasticsearch {
   hosts => "192.168.11.10:9200"
   index => "springboot-logstash-%{+YYYY.MM.dd}"
 }
}

 

bin/logstash -f conf.d # 启动logstash

4、启动springboot项目,访问首页,浏览器访问kibana或es head图形界面

kibana界面:

es head界面:

 

 

 

### Logback日志文件上传到远程服务器的配置方法 要将Logback生成的日志文件上传至远程服务器,可以通过多种方式实现。以下是几种常见的解决方案: #### 1. 使用SFTP Appender 通过`ch.qos.logback.core.net.sftp.SFTPSink`类或其他第三方库(如logback-sftp),可以直接将日志文件写入到远程服务器上的指定目录。 以下是一个基于SFTP协议的配置示例[^4]: ```xml <configuration> <!-- 定义RollingFileAppender --> <appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>/var/log/myapp.log</file> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <fileNamePattern>/var/log/myapp.%d{yyyy-MM-dd}.log.zip</fileNamePattern> <maxHistory>30</maxHistory> </rollingPolicy> <encoder> <pattern>%date %level [%thread] %logger{10} [%file:%line] %msg%n</pattern> </encoder> </appender> <!-- SFTP Appender --> <appender name="SFTP" class="com.example.CustomSftpAppender"> <remoteHost>your.remote.server.com</remoteHost> <username>sftp_user</username> <password>sftp_password</password> <remoteDirectory>/path/to/remote/logs</remoteDirectory> <localFilePattern>/var/log/myapp.*.log.zip</localFilePattern> </appender> <root level="INFO"> <appender-ref ref="FILE"/> <appender-ref ref="SFTP"/> </root> </configuration> ``` 上述配置中定义了一个滚动文件追加器 (`RollingFileAppender`) 和一个自定义的 `CustomSftpAppender` 来处理日志文件传输。需要注意的是,标准Logback并不自带SFTP功能,因此可能需要引入额外依赖或开发自己的适配器[^4]。 #### 2. 利用脚本定时同步日志 如果不想修改现有应用中的Logback配置,则可以在操作系统层面利用Cron Job或者Windows Task Scheduler配合rsync/sftp命令完成定期上传操作。例如Linux环境下可编写如下Shell Script并安排执行计划: ```bash #!/bin/bash LOG_DIR="/var/log/" REMOTE_HOST="logs.yourserver.com" USER_NAME="sftpuser" PASSWORD="securepass" lftp sftp://${USER_NAME}:${PASSWORD}@${REMOTE_HOST} <<EOF mirror --reverse ${LOG_DIR}/ /home/${USER_NAME}/uploaded_logs/ bye EOF ``` 此脚本会把本地 `/var/log/` 下面的所有新产生的日志复制过去给定的目标位置上[^5]。 #### 3. 结合ELK Stack进行集中化管理 对于微服务架构下的大型项目来说,单独依靠简单的文件拷贝难以满足需求;此时推荐采用Elasticsearch + Logstash + Kibana (简称 ELK )这样的开源工具链来进行统一管理和分析工作流数据源之一即来自各个节点所产生的结构化半结构化的文本型别的事件消息等等[^6]. 在Spring Boot工程里集成ELK时通常借助于专门定制过的 logback 扩展组件比如前面提到的那个例子里面展示出来的那样设置好相应的 appender 就可以让所有的业务流程相关的追踪信息都被转发出去进而被索引存储起来供后续查询统计报表制作之用了[^7]. --- ### 注意事项 - **安全性**: 当涉及到敏感资料传送的时候一定要考虑加密措施防止泄露风险发生. - **性能影响**: 如果频繁地向外部推送大量体积庞大的文档可能会占用过多网络带宽从而拖慢整个系统的响应速度所以最好能够合理规划频率以及批次大小等方面参数设定.
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值