使用ELK监控mysql慢日志查询记录

本文介绍如何使用Logstash收集MySQL慢查询日志,并将其发送到Elasticsearch进行分析处理,最后通过Kibana展示分析结果。文章详细介绍了配置过程,包括Logstash配置文件的编写、过滤SQL语句的方法及启动各组件的步骤。

前言

前面讲了elk每个组件已经x-pack的安装使用,具体联合操作没有详细讲。本文使用logstach收集mysql慢日志,传送给elasticsearch进行分析处理,使用kibana进行web端的显示。

mysql开启慢日志记录

百度。

增加logstach的一个新配置文件

新增一个配置文件 启动使用命令参数 -f 引入。 
mysql-slow.log.conf

input {
  file {
    type => "mysql-slow"
    path => "/var/lib/mysql/mysql_slow_query01.log"
    codec => multiline {
      pattern => "^# User@Host:"
      negate => true
      what => "previous"
    }
  }
}
#input节的配置定义了输入的日志类型为mysql慢查询日志类型以及日志路径,采用合并多行数据。negate字段是一个选择开关,可以正向匹配和反向匹配
filter {
  # drop sleep events
  grok {
    match => { "message" => "SELECT SLEEP" }
    add_tag => [ "sleep_drop" ]
    tag_on_failure => [] # prevent default _grokparsefailure tag on real records
  }
  if "sleep_drop" in [tags] {
    drop {}
  }
#filter节的配置定义了过滤mysql查询为sleep状态SQL语句
grok {
match => [ "message", "(?m)^# User@Host: %{USER:user}\[[^\]]+\] @ (?:(?<clienthost>\S*) )?\[(?:%{IP:clientip})?\]\s*# Query_time: %{NUMBER:query_time:float}\s+Lock_time: %{NUMBER:lock_time:float}\s+Rows_sent: %{NUMBER:rows_sent:int}\s+Rows_examined: %{NUMBER:rows_examined:int}\s*(?:use %{DATA:database};\s*)?SET timestamp=%{NUMBER:timestamp};\s*(?<query>(?<action>\w+)\s+.*)\n# Time:.*$" ]
}

  date {
    match => [ "timestamp", "UNIX" ]
    remove_field => [ "timestamp" ]
  }
}
#grok节定义了慢查询日志输出的正则切割,这个容易头晕眼花!
output {
 stdout {
 codec => rubydebug {}
}
 elasticsearch {
 hosts => "192.168.0.111:9200"
 user => "elastic"
 password => "123456"
 index => "mysql-server81-%{+YYYY.MM.dd}"
}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44

主要修改的就是input里面的path,output里面的es地址hosts和x-pack密码user,password的设置。

启动

启动es先,在启动logstach和kibana。 
个人用户启动es

[root@localhost elasticsearch-6.2.4]# su lin 
[lin@localhost elasticsearch-6.2.4]$ ./bin/elasticsearch

启动logstach,等待20~30s

[root@Hicard_wallet logstash-6.2.4]# ./bin/logstash -f /root/mysql-slow.log.conf

启动kibana

[root@Hicard_wallet kibana-6.2.4-linux-x86_64]# ./bin/kibana

访问http://192.168.1.110:5601 
创建索引模式 
这里写图片描述
增加时间戳 
这里写图片描述
查看sql 
这里写图片描述


配置ELK(Elasticsearch、Logstash、Kibana)来监控和分析MySQL日志,可以按照以下步骤进行。整个过程包括Logstash的日志收集与处理、Elasticsearch的数据存储,以及Kibana的数据可视化。 ### 3.1 Logstash 配置:收集和处理 MySQL 日志 MySQL日志通常包括慢查询日志、错误日志和通用查询日志。为了将这些日志导入Elasticsearch,需要在Logstash中编写配置文件,定义输入源、过滤规则和输出目标。 #### 示例 Logstash 配置文件 `mysql_log.conf` ```ruby input { file { path => "/var/log/mysql/mysql-slow.log" type => "slow_query" start_position => "beginning" } file { path => "/var/log/mysql/error.log" type => "error" start_position => "beginning" } } filter { if [type] == "slow_query" { grok { match => { "message" => "%{MYSQL_SLOW_LOG}" } } } if [type] == "error" { grok { match => { "message" => "%{SYSLOGBASE2} %{DATA} %{GREEDYDATA:message}" } } } } output { if [type] == "slow_query" { elasticsearch { hosts => ["http://14.0.0.77:9200"] index => "mysql-slow-%{+YYYY.MM.dd}" } } if [type] == "error" { elasticsearch { hosts => ["http://14.0.0.77:9200"] index => "mysql-error-%{+YYYY.MM.dd}" } } } ``` 此配置文件定义了两个日志源:慢查询日志和错误日志,并使用Grok过滤器解析日志内容,以便更好地在Elasticsearch中进行搜索和分析[^4]。 ### 3.2 Elasticsearch:存储 MySQL 日志数据 Logstash将处理后的日志数据发送到Elasticsearch后,Elasticsearch会自动对数据进行索引和存储。可以通过访问Elasticsearch的REST API或使用Kibana的Dev Tools来验证索引是否成功创建。 例如,使用以下命令检查索引是否存在: ```bash GET /_cat/indices?v ``` 应能看到类似 `mysql-slow-2024.05.20` 和 `mysql-error-2024.05.20` 的索引名称。 ### 3.3 Kibana:可视化 MySQL 日志数据 在Kibana中,可以通过以下步骤创建索引模式并可视化日志数据: 1. **创建索引模式**:进入 Kibana 的 "Management" > "Index Management",然后选择 "Index Patterns",创建两个索引模式: - `mysql-slow-*` - `mysql-error-*` 2. **创建仪表板**:进入 "Dashboard" 页面,点击 "Create dashboard",然后添加新的可视化图表。可以选择创建: - 慢查询数量随时间变化的趋势图 - 错误日志的频率统计 - 查询执行时间的分布图等 3. **设置时间范围**:在右上角选择合适的时间范围,以查看特定时间段内的MySQL日志数据。 ### 3.4 高级配置建议 - **日志格式一致性**:确保MySQL日志格式统一,便于Logstash解析。可以在MySQL配置文件中启用慢查询日志并设置日志格式。 - **性能优化**:如果日志量较大,可以考虑使用Logstash的多线程处理功能,提高数据处理效率。 - **安全配置**:为Elasticsearch和Kibana启用安全认证机制,防止未授权访问。 - **自动加载配置**:如需在不重启Logstash的情况下加载新配置,可以使用以下命令: ```bash /usr/share/logstash/bin/logstash -f mysql_log.conf --config.test_and_exit ``` ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值