Springboot集成syslog+logstash收集日志到ES

Springboot集成syslog+logstash收集日志到ES

1、背景

Logstash 是一个实时数据收集引擎,可收集各类型数据并对其进行分析,过滤和归纳。按照自己条件分析过滤出符合的数据,导入到可视化界面。它可以实现多样化的数据源数据全量或增量传输,数据标准格式处理,数据格式化输出等的功能,常用于日志处理。工作流程分为三个阶段:

  1. input数据输入阶段,可接收oracle、mysql、postgresql、file等多种数据源;
  2. filter数据标准格式化阶段,可过滤、格式化数据,如格式化时间、字符串等;
  3. output数据输出阶段,可输出到elasticsearch、mongodb、kafka等接收终端。

架构原理:springboot发出syslog日志,通过系统的rsyslog服务进行数据转发,logstash监听rsyslog端口过滤数据并发到es进行存储

2、springboot集成syslog

maven依赖:

<dependency>
    <groupId>org.slf4j</groupId>
    <artifactId>slf4j-api</artifactId>
    <version>1.7.7</version>
</dependency>
<dependency>
    <groupId>ch.qos.logback</groupId>
    <artifactId>logback-core</artifactId>
    <version>1.1.7</version>
</dependency>
<dependency>
    <groupId>ch.qos.logback</groupId>
    <artifactId>logback-classic</artifactId>
    <version>1.1.7</version>
</dependency>

logback.xml文件配置

配置好日志之后,在root标签中添加appender才能生效;

<?xml version="1.0" encoding="UTF-8"?>
<configuration debug="false">
  <!-- 控制台输出 -->
  <appender name="consoleLogAppender" class="ch.qos.logback.core.ConsoleAppender">
    <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
      <level>INFO</level>
    </filter>
    <encoder>
      <pattern>%d{
   
   yyyy-MM-dd HH:mm:ss} [%thread] %-5level %logger{
   
   20} - %cyan(%.-3072msg %n)</pattern>
    </encoder>
  </appender>

  <appender name="infoFileAppender" class="ch.qos.logback.core.rolling.RollingFileAppender">
    <File>./logs/service.log</File>
    <filter class="ch.qos.logback.classic.filter.LevelFilter">
      <level>INFO</level>
      <onMatch>ACCEPT</onMatch>
      <onMismatch>DENY</onMismatch>
    </filter>
    <encoder>
      <pattern>%d{
   
   yyyy-MM-dd HH:mm:ss} [%thread] %-5level %logger{
   
   20} - %cyan(%.-3072msg %n)</pattern>
    </encoder>
    <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
      <fileNamePattern>./logs/service-log-%d{
   
   yyyy-MM-dd}.log</fileNamePattern>
      <maxHistory>15</maxHistory>
      <totalSizeCap>5GB</totalSizeCap>
    </rollingPolicy>
  </appender>
  <appender name="errorFileAppender" class="ch.qos.logback.core.rolling.RollingFileAppender">
    <File>./logs/service-error.log</File>
    <filter class="ch.qos.logback.classic.filter.LevelFilter">
      <level>ERROR</level>
      <onMatch>ACCEPT</onMatch>
      <onMismatch>DENY</onMismatch>
    </filter>
    <encoder>
      <pattern>%d{
   
   yyyy-MM-dd HH
DHCP(Dynamic Host Configuration Protocol)日志通常记录在系统日志文件中,例如 `/var/log/messages` 或 `/var/log/syslog`,具体取决于操作系统和配置。为了使用 Elastic Stack(ElasticsearchLogstash、Filebeat 和 Kibana)收集和分析 DHCP 日志,可以按照以下步骤进行配置。 ### 1. 部署 Filebeat 收集日志 Filebeat 是一个轻量级的日志收集器,用于监控日志文件并将数据发送到 LogstashElasticsearch。 #### 安装并配置 Filebeat 编辑 Filebeat 的配置文件 `filebeat.yml`,指定 DHCP 日志的路径以及 Logstash 的地址: ```yaml filebeat.inputs: - type: log enabled: true paths: - /var/log/syslog # 或 /var/log/messages,根据系统而定 - /var/log/dhcpd.log # 如果 DHCP 服务单独输出日志 output.logstash: hosts: ["logstash-server:5044"] ``` 启动 Filebeat: ```bash sudo systemctl start filebeat ``` ### 2. 配置 Logstash 解析 DHCP 日志 Logstash 负责接收日志数据,并进行解析和格式化。 #### 创建 Logstash 配置文件 `dhcp.conf` ```ruby input { beats { port => 5044 } } filter { grok { match => { "message" => "<%{POSINT:priority}>%{SYSLOGTIMESTAMP:timestamp} %{SYSLOGHOST:hostname} %{DATA:program}(?:$$%{POSINT:pid}$$)?: %{GREEDYDATA:message}" } } if [program] == "dhcpd" { grok { match => { "message" => "%{DHCPD}" } } } date { match => [ "timestamp", "MMM d HH:mm:ss", "MMM dd HH:mm:ss" ] } } output { elasticsearch { hosts => ["elasticsearch-server:9200"] index => "dhcp-logs-%{+YYYY.MM.dd}" } } ``` 启动 Logstash 并加载该配置文件: ```bash bin/logstash -f dhcp.conf ``` ### 3. 在 Elasticsearch 中存储 DHCP 日志 Elasticsearch 接收 Logstash 发送的数据,并按照指定的索引格式存储日志。 #### Elasticsearch 基本配置(可参考引用[3]) ```yaml # elasticsearch.yml 示例 node.name: dhcp-node network.host: 0.0.0.0 http.port: 9200 cluster.initial_master_nodes: ["dhcp-node"] ``` 确保 Elasticsearch 正常运行,并允许 Logstash 通过 9200 端口写入数据。 ### 4. 使用 Kibana 分析和可视化 DHCP 日志 Kibana 提供了图形化界面,用于查询和可视化存储在 Elasticsearch 中的日志数据。 #### 在 Kibana 中配置索引模式 1. 打开 Kibana Web 界面(默认地址为 `http://kibana-server:5601`)。 2. 进入 **Management > Stack Management > Index Management**。 3. 创建索引模式 `dhcp-logs-*`。 4. 选择时间字段为 `timestamp`。 #### 创建可视化图表 1. 进入 **Visualize** 页面,点击 **Create visualization**。 2. 选择 **Lens** 或 **Vega** 等可视化工具。 3. 例如,可以创建一个柱状图展示每天的 DHCP 请求量,或一个饼图展示不同类型的 DHCP 操作(如 DHCPREQUEST、DHCPACK 等)。 ### 5. 示例 DHCP 日志解析 假设原始 DHCP 日志内容如下: ``` Mar 10 14:23:45 dhcp-server dhcpd: DHCPREQUEST for 192.168.1.100 (192.168.1.1) from 00:1a:2b:3c:4d:5e via eth0 ``` 通过 Grok 解析后,Logstash 会提取出以下字段: - `timestamp`: `Mar 10 14:23:45` - `hostname`: `dhcp-server` - `program`: `dhcpd` - `message`: `DHCPREQUEST for 192.168.1.100 (192.168.1.1) from 00:1a:2b:3c:4d:5e via eth0` ### 6. 高级分析与告警 可以使用 Kibana 的 **Discover** 功能进行自由查询,也可以使用 **Alerting** 功能设置阈值告警,例如当 DHCP 分配失败次数超过一定数量时触发告警。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值