MySQL慢查询整理

本文详细介绍了在Linux环境下开启MySQL慢查询的功能,包括慢查询日志的简介、开启方法(通过修改全局参数和my.cnf配置)、日志分析与处理方式(使用文本处理工具和mysqldumpslow工具),以及如何定期安全清理slow.log日志。
linux下开启mysql慢查询
1.慢查询简介
  顾名思义,慢查询日志中记录的是执行时间较长的查询的SQL语句,默认文件名为hostname-slow.log,默认目录也是数据目录。
  慢查询日志采用的是简单的文本格式,可以通过各种文本编辑器查看其中的内容。
  其中记录了语句执行的时刻,执行所消耗的时间,执行用户,连接主机等相关信息。
  MySQL提供了专门的工具mysqlslowdump来分析慢查询日志,DBA可借此工具定位数据库可能存在的性能问题。
2.开启方法 
步骤1:开启慢查询功能的设置
方法1:修改全局参数开启
查看慢查询是否开启{默认是关闭的}
mysql> show variables like "%slow%"; 
+---------------------+----------------------------------+
| Variable_name       | Value                            |
+---------------------+----------------------------------+
| log_slow_queries    | OFF                              |
| slow_launch_time    | 2                                |
| slow_query_log      | OFF                              |
| slow_query_log_file | /mnt/mydata/tkudb-slow.log |
+---------------------+----------------------------------+
4 rows in set (0.00 sec)
开启慢查询
mysql> set global slow_query_log='ON';  
Query OK, 0 rows affected (0.01 sec)
验证慢查询
mysql> show variables like "%slow%";
+---------------------+----------------------------------+
| Variable_name       | Value                            |
+---------------------+----------------------------------+
| log_slow_queries    | ON                               |
| slow_launch_time    | 2                                |
| slow_query_log      | ON                               |
| slow_query_log_file | /mnt/mydata/tkudb-slow.log |
+---------------------+----------------------------------+
4 rows in set (0.00 sec)
方法2:修改my.cnf{加入如下命令}
#cat my.cnf
long_query_time = 3
log-slow-queries = /mnt/mydata/tkudb-slow.log 
重启mysql服务后,设置生效;

步骤2:设置慢查询的时间
系统默认值查看{默认慢查询的时间为10s}
mysql> show variables like "%long%"; 
+---------------------------------------------------+-----------+
| Variable_name                                     | Value     |
+---------------------------------------------------+-----------+
| long_query_time                                   | 10.000000 |
| max_long_data_size                                | 1048576   |
| performance_schema_events_waits_history_long_size | 10000     |
+---------------------------------------------------+-----------+
3 rows in set (0.00 sec)
mysql> set global long_query_time=3;        
Query OK, 0 rows affected (0.00 sec)
3.日志分析与处理
1.利用文本处理工具如notepad+,处理tkudb-slow.log 
2.使用mysqldumpslow工具
[root@tkudb mydata]# mysqldumpslow --help
Usage: mysqldumpslow [ OPTS... ] [ LOGS... ]
Parse and summarize the MySQL slow query log. Options are
  --verbose    verbose
  --debug      debug
  --help       write this text to standard output
  -v           verbose
  -d           debug
  -s ORDER     what to sort by (al, at, ar, c, l, r, t), 'at' is default
                al: average lock time
                ar: average rows sent
                at: average query time
                 c: count
                 l: lock time
                 r: rows sent
                 t: query time  
  -r           reverse the sort order (largest last instead of first)
  -t NUM       just show the top n queries
  -a           don't abstract all numbers to N and strings to 'S'
  -n NUM       abstract numbers with at least n digits within names
  -g PATTERN   grep: only consider stmts that include this string #匹配模式
  -h HOSTNAME  hostname of db server for *-slow.log filename (can be wildcard),
               default is '*', i.e. match all
  -i NAME      name of server instance (if using mysql.server startup script)
  -l           don't subtract lock time from total time
例子:
查询最后10次log
[root@tkudb mydata]# mysqldumpslow -s r -t 10 /mnt/mydata/tkudb-slow.log
查询带有select关键词的最后10次log
[root@tkudb mydata]# mysqldumpslow -s r -t 10 -g 'select' /mnt/mydata/tkudb-slow.log
方法3:集群数据库,所有主机的慢日志集中写到某一个监控数据库的表,由php统一调用显示!

4.如何定期安全清理slow.log

1.先执行备份,然后对备份文件压缩打包,最后清除slow.log

内容概要:本文为《科技类企业品牌传播白皮书》,系统阐述了新闻媒体发稿、自媒体博主种草与短视频矩阵覆盖三大核心传播策略,并结合“传声港”平台的AI工具与资源整合能力,提出适配科技企业的品牌传播解决方案。文章深入分析科技企业传播的特殊性,包括受众圈层化、技术复杂性与传播通俗性的矛盾、产品生命周期影响及2024-2025年传播新趋势,强调从“技术输出”向“价值引领”的战略升级。针对三种传播方式,分别从适用场景、操作流程、效果评估、成本效益、风险防控等方面提供详尽指南,并通过平台AI能力实现资源智能匹配、内容精准投放与全链路效果追踪,最终构建“信任—种草—曝光”三位一体的传播闭环。; 适合人群:科技类企业品牌与市场负责人、公关传播从业者、数字营销管理者及初创科技公司创始人;具备一定品牌传播基础,关注效果可量化与AI工具赋能的专业人士。; 使用场景及目标:①制定科技产品全生命周期的品牌传播策略;②优化媒体发稿、KOL合作与短视频运营的资源配置与ROI;③借助AI平台实现传播内容的精准触达、效果监测与风险控制;④提升品牌在技术可信度、用户信任与市场影响力方面的综合竞争力。; 阅读建议:建议结合传声港平台的实际工具模块(如AI选媒、达人匹配、数据驾驶舱)进行对照阅读,重点关注各阶段的标准化流程与数据指标基准,将理论策略与平台实操深度融合,推动品牌传播从经验驱动转向数据与工具双驱动。
【3D应力敏感度分析拓扑优化】【基于p-范数全局应力衡量的3D敏感度分析】基于伴随方法的有限元分析和p-范数应力敏感度分析(Matlab代码实现)内容概要:本文档围绕“基于p-范数全局应力衡量的3D应力敏感度分析”展开,介绍了一种结合伴随方法与有限元分析的拓扑优化技术,重点实现了3D结构在应力约束下的敏感度分析。文中详细阐述了p-范数应力聚合方法的理论基础及其在避免局部应力过高的优势,并通过Matlab代码实现完整的数值仿真流程,涵盖有限元建模、灵敏度计算、优化迭代等关键环节,适用于复杂三维结构的轻量化与高强度设计。; 适合人群:具备有限元分析基础、拓扑优化背景及Matlab编程能力的研究生、科研人员或从事结构设计的工程技术人员,尤其适合致力于力学仿真与优化算法开发的专业人士; 使用场景及目标:①应用于航空航天、机械制造、土木工程等领域中对结构强度和重量有高要求的设计优化;②帮助读者深入理解伴随法在应力约束优化中的应用,掌握p-范数法处理全局应力约束的技术细节;③为科研复现、论文写作及工程项目提供可运行的Matlab代码参考与算法验证平台; 阅读建议:建议读者结合文中提到的优化算法原理与Matlab代码同步调试,重点关注敏感度推导与有限元实现的衔接部分,同时推荐使用提供的网盘资源获取完整代码与测试案例,以提升学习效率与实践效果。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值