logback LogstashEncoder elk

<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="true">
    <!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径
    <property name="LOG_NAME" value="/home"></property>-->
    
    <appender name="LOGSTASH" class="ch.qos.logback.core.ConsoleAppender"> 
        <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder">
            <providers>
                <timestamp>
                    <timeZone>UTC</timeZone>
                </timestamp>
                <pattern>
                      <!-- exception 10行异常栈信息转存储到es 
                           traceId 链路调用标识
                           span 调用层级关系   
                       -->
                    <pattern>
                        {
                        "ip": "${ip}",
                        "app": "${appName}",
                        "level": "%level",
                        "trace": "%X{X-B3-TraceId:-}",
                        "span": "%X{X-B3-SpanId:-}",
                        "parent": "%X{X-B3-ParentSpanId:-}",
                        "thread": "%thread",
                        "class": "%logger{40}",
                        "message": "%message",
                        "stack_trace": "%exception{10}"
                                     }
                    </pattern>
                </pattern>
            </providers>
        </encoder>
    </appender>

    <springProfile name="prod">
        <root level="info">
            <appender-ref ref="LOGSTASH"/>
        </root>
    </springProfile>

    <springProfile name="dev">
        <root level="info">
            <appender-ref ref="LOGSTASH"/>
        </root>
    </springProfile>
</configuration>

 

logstash 配置

input {
   tcp {
     port => 5044
     codec => json_lines
   }


}
filter {
    multiline {
        #pattern => "^%{TIMESTAMP_ISO8601}"
        pattern => "^\s"
      what => "previous"
        }
urldecode{
 field =>message
 }
}
output {
  elasticsearch {
    hosts => ["es:9200"]
  }

}

docker logstash 配置

  logstash:
    image: logstash:6.5.4
    container_name: logstash
    volumes:
      - ./es/logstash/pipeline:/usr/share/logstash/pipeline
      - ./es/logstash/config:/usr/share/logstash/config
    environment:
      - ELASTICSEARCH_URL="http://es:9200"
    networks:
      - javanet
    ports:
      - 5044:5044
      - 9600:9600

参考

https://blog.youkuaiyun.com/qq_33430322/article/details/89238944

### 使用 LogstashEncoder 实现数据脱敏 为了确保日志中的敏感信息得到有效保护,在使用 `LogstashEncoder` 进行日志记录时,应当采取适当措施对敏感字段进行脱敏处理。以下是具体方法和配置示例: #### 方法一:通过自定义模式字符串实现简单替换 可以在 `pattern` 中指定特定格式来隐藏部分字符,例如只显示前几位或后几位数字。 ```java import net.logstash.logback.encoder.LogstashEncoder; import ch.qos.logback.classic.LoggerContext; LoggerContext context = (LoggerContext) LoggerFactory.getILoggerFactory(); LogstashEncoder encoder = new LogstashEncoder(); // 设置 pattern 属性以控制输出格式并遮蔽某些字段的内容 encoder.setCustomFields("{ \"masked_field\": \"%replace(%marker{field}){'abc','***'}\" }"); ``` 此方式适用于简单的场景,但对于复杂的数据结构可能不够灵活[^1]。 #### 方法二:利用内置插件完成更复杂的转换逻辑 对于更加精细的控制需求,则可以借助于额外组件——比如 Grok 解析器配合 Mutate Filter 插件一起工作,从而达到更好的效果。 然而,在 Java 应用程序内部直接集成上述功能较为困难;通常建议将此类任务交给专门的日志收集管道(如 ELK Stack),即先发送原始消息给 Logstash 处理后再存入 Elasticsearch 或其他存储介质中保存。 如果确实希望在应用程序级别就做好初步净化,则可考虑引入第三方库来进行预处理操作,之后再交由标准编码器负责最终渲染[^3]。 #### 最佳实践总结 - **最小化原则**:仅保留必要的业务上下文信息,去除任何不必要的细节。 - **加密传输**:即使经过了本地脱敏,仍然推荐采用 HTTPS 协议或其他安全通道传送至远程服务器端。 - **定期审查策略**:随着业务发展和技术进步不断优化现有方案,确保始终符合最新的合规性要求[^2].
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

jiguansheng

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值