MySQL慢查询的可能原因及解决思路

MySQL慢查询优化:原因分析与解决方案
本文探讨了MySQL慢查询的原因,包括服务器、库表结构、索引和查询语句等方面,并提供了两种定位慢查询的方法:设置`long_query_time`参数和使用`mysqldumpslow`命令。通过监控和调整MySQL配置,可以有效提升数据库性能和查询效率。

MySQL慢查询的可能原因及解决思路

要有高性能的MySQL服务,不仅需要设计好的库表结构、好的索引,还需要有好的查询。
也就是说,一个慢查询的出现,可以从服务器、库表结构、索引、查询语句等方面着手。
对查询进行性能剖析有两种方式,一种是剖析服务器负载,另一种是剖析单条查询。
对于排查问题找出性能瓶颈来说,最容易发现并解决的问题就是MYSQL的慢查询以及没有得用索引的查询。
下面讲解定位慢查询的两种方式:

方法一: 设置long_query_time参数。

Mysql5.0以上的版本可以支持将执行比较慢的SQL语句记录下来。
mysql> show variables like ‘long%’; 注:这个long_query_time是用来定义慢于多少秒的才算“慢查询”
±----------------±----------+
| Variable_name | Value |
±----------------±----------+
| long_query_time | 10.000000 |
±----------------±----------+
1 row in set (0.00 sec)
mysql> set long_query_time=1; 注: 我设置了1, 也就是执行时间超过1秒的都算慢查询。
Query OK, 0 rows affected (0.00 sec)
mysql> show variables like ‘slow%’;
±--------------------±--------------+
| Variable_name | Value |
±--------------------±--------------+
| slow_launch_time | 2 |
| slow_query_log | ON | 注:是否打开日志记录

| slow_query_log_file | /tmp/slow.log | 注: 设置到什么位置
±--------------------±--------------+
3 rows in set (0.00 sec)
mysql> set global slow_query_log=‘ON’ 注:打开日志记录
一旦slow_query_log变量被设置为ON,mysql会立即开始记录。
/etc/my.cnf 里面可以设置上面MYSQL全局变量的初始值。
long_query_time=1
slow_query_log_file=/tmp/slow.log

方法二:mysqldumpslow命令

/path/mysqldumpslow -s c -t 10 /tmp/slow-log
这会输出记录次数最多的10条SQL语句,其中:
-s, 是表示按照何种方式排序,c、t、l、r分别是按照记录次数、时间、查询时间、返回的记录数来排序,ac、at、al、ar,表示相应的倒叙;
-t, 是top n的意思,即为返回前面多少条的数据;
-g, 后边可以写一个正则匹配模式,大小写不敏感的;
比如
/path/mysqldumpslow -s r -t 10 /tmp/slow-log
得到返回记录集最多的10个查询。
/path/mysqldumpslow -s t -t 10 -g “left join” /tmp/slow-log
得到按照时间排序的前10条里面含有左连接的查询语句。 最后总结一下节点监控的好处
1. 轻量级的监控,而且是实时的,还可以根据实际的情况来定制和修改
2. 设置了过滤程序,可以对那些一定要跑的语句进行过滤
3. 及时发现那些没有用索引,或者是不合法的查询,虽然这很耗时去处理那些慢语句,但这样可以避免数据库挂掉,还是值得的
4. 在数据库出现连接数过多的时候,程序会自动保存当前数据库的processlist,DBA进行原因查找的时候这可是利器
5. 使用mysqlbinlog 来分析的时候,可以得到明确的数据库状态异常的时间段
有些人会建义我们来做mysql配置文件设置

调节tmp_table_size 的时候发现另外一些参数
Qcache_queries_in_cache 在缓存中已注册的查询数目
Qcache_inserts 被加入到缓存中的查询数目
Qcache_hits 缓存采样数数目
Qcache_lowmem_prunes 因为缺少内存而被从缓存中删除的查询数目
Qcache_not_cached 没有被缓存的查询数目 (不能被缓存的,或由于 QUERY_CACHE_TYPE)
Qcache_free_memory 查询缓存的空闲内存总数
Qcache_free_blocks 查询缓存中的空闲内存块的数目
Qcache_total_blocks 查询缓存中的块的总数目
Qcache_free_memory 可以缓存一些常用的查询,如果是常用的sql会被装载到内存。那样会增加数据库访问速度。

针对慢查询的语句优化

1、用Profiler来跟踪查询,得到查询所需的时间,找出SQL的问题所在;用索引优化器优化索引

2、注意UNion和UNion all 的区别。UNION all好

3、注意使用DISTINCT,在没有必要时不要用,它同UNION一样会使查询变慢。重复的记录在查询里是没有问题的

4、查询时不要返回不需要的行、列

5、用sp_configure 'query governor cost limit’或者SET QUERY_GOVERNOR_COST_LIMIT来限制查询消耗的资源。当评估查询消耗的资源超出限制时,服务器自动取消查询,在查询之前就扼杀掉。SET LOCKTIME设置锁的时间

6、用select top 100 / 10 Percent 来限制用户返回的行数或者SET ROWCOUNT来限制操作的行

7、在SQL2000以前,一般不要用如下的字句: “IS NULL”, “<>”, “!=”, “!>”, “!<”, “NOT”, “NOT EXISTS”, “NOT IN”, “NOT LIKE”, and “LIKE ‘%500’”,因为他们不走索引全是表扫描。也不要在WHere字句中的列名加函数,如Convert,substring等,如果必须用函数的时候,创建计算列再创建索引来替代.还可以变通写法:WHERE SUBSTRING(firstname,1,1) = 'm’改为WHERE firstname like ‘m%’(索引扫描),一定要将函数和列名分开。并且索引不能建得太多和太大。NOT IN会多次扫描表,使用EXISTS、NOT EXISTS ,IN , LEFT OUTER JOIN 来替代,特别是左连接,而Exists比IN更快,最慢的是NOT操作.如果列的值含有空,以前它的索引不起作用,现在2000的优化器能够处理了。相同的是IS NULL,“NOT”, “NOT EXISTS”, “NOT IN"能优化她,而”<>"等还是不能优化,用不到索引。

8、使用Query Analyzer,查看SQL语句的查询计划和评估分析是否是优化的SQL。一般的20%的代码占据了80%的资源,我们优化的重点是这些慢的地方。

9、如果使用了IN或者OR等时发现查询没有走索引,使用显示申明指定索引:

SELECT * FROM PersonMember (INDEX = IX_Title) WHERE processid IN (‘男’,‘女’)

10、将需要查询的结果预先计算好放在表中,查询的时候再SELECT。这在SQL7.0以前是最重要的手段。例如医院的住院费计算。

11、MIN() 和 MAX()能使用到合适的索引。

12、数据库有一个原则是代码离数据越近越好,所以优先选择Default,依次为Rules,Triggers, Constraint(约束如外健主健CheckUNIQUE……,数据类型的最大长度等等都是约束),Procedure.这样不仅维护工作小,编写程序质量高,并且执行的速度快。

13、如果要插入大的二进制值到Image列,使用存储过程,千万不要用内嵌INsert来插入(不知JAVA是否)。因为这样应用程序首先将二进制值转换成字符串(尺寸是它的两倍),服务器受到字符后又将他转换成二进制值.存储过程就没有这些动作: 方法:

Create procedure p_insert as insert into table(Fimage) values (@image)

在前台调用这个存储过程传入二进制参数,这样处理速度明显改善。

14、Between在某些时候比IN速度更快,Between能够更快地根据索引找到范围。用查询优化器可见到差别。

select * from chineseresume where title in (‘男’,‘女’)
Select * from chineseresume where title between ‘男’ and ‘女’
是一样的。由于in会在比较多次,所以有时会慢些。

15、在必要是对全局或者局部临时表创建索引,有时能够提高速度,但不是一定会这样,因为索引也耗费大量的资源。他的创建同是实际表一样。

16、不要建没有作用的事物例如产生报表时,浪费资源。只有在必要使用事物时使用它。

17、用OR的字句可以分解成多个查询,并且通过UNION 连接多个查询。他们的速度只同是否使用索引有关,如果查询需要用到联合索引,用UNION all执行的效率更高.多个OR的字句没有用到索引,改写成UNION的形式再试图与索引匹配。一个关键的问题是否用到索引。

18、尽量少用视图,它的效率低。对视图操作比直接对表操作慢,可以用stored procedure来代替她。特别的是不要用视图嵌套,嵌套视图增加了寻找原始资料的难度。我们看视图的本质:它是存放在服务器上的被优化好了的已经产生了查询规划的SQL。对单个表检索数据时,不要使用指向多个表的视图,直接从表检索或者仅仅包含这个表的视图上读,否则增加了不必要的开销,查询受到干扰.为了加快视图的查询,MsSQL增加了视图索引的功能。

19、没有必要时不要用DISTINCT和ORDER BY,这些动作可以改在客户端执行。它们增加了额外的开销。这同UNION 和UNION ALL一样的道理。

select top 20 ad.companyname,comid,position,ad.referenceid,worklocation,
convert(varchar(10),ad.postDate,120) as postDate1,workyear,degreedescription FROM
jobcn_query.dbo.COMPANYAD_query ad where referenceID in(‘JCNAD00329667’,‘JCNAD132168’,‘JCNAD00337748’,‘JCNAD00338345’,
‘JCNAD00333138’,‘JCNAD00303570’,‘JCNAD00303569’,
‘JCNAD00303568’,‘JCNAD00306698’,‘JCNAD00231935’,‘JCNAD00231933’,
‘JCNAD00254567’,‘JCNAD00254585’,‘JCNAD00254608’,
‘JCNAD00254607’,‘JCNAD00258524’,‘JCNAD00332133’,‘JCNAD00268618’,
‘JCNAD00279196’,‘JCNAD00268613’) order by postdate desc

20、在IN后面值的列表中,将出现最频繁的值放在最前面,出现得最少的放在最后面,减少判断的次数。

21、当用SELECT INTO时,它会锁住系统表(sysobjects,sysindexes等等),阻塞其他的连接的存取。创建临时表时用显示申明语句,而不是

select INTO. drop table t_lxh begin tran select * into t_lxh from chineseresume
where name = ‘XYZ’ --commit

在另一个连接中SELECT * from sysobjects可以看到 SELECT INTO 会锁住系统表,Create table 也会锁系统表(不管是临时表还是系统表)。所以千万不要在事物内使用它!!!这样的话如果是经常要用的临时表请使用实表,或者临时表变量。

22、一般在GROUP BY 个HAVING字句之前就能剔除多余的行,所以尽量不要用它们来做剔除行的工作。他们的执行顺序应该如下最优:select 的Where字句选择所有合适的行,Group By用来分组个统计行,Having字句用来剔除多余的分组。这样Group By 个Having的开销小,查询快.对于大的数据行进行分组和Having十分消耗资源。如果Group BY的目的不包括计算,只是分组,那么用Distinct更快

23、一次更新多条记录比分多次更新每次一条快,就是说批处理好

24、少用临时表,尽量用结果集和Table类性的变量来代替它,Table 类型的变量比临时表好

25、在SQL2000下,计算字段是可以索引的,需要满足的条件如下:

a、计算字段的表达是确定的

b、不能用在TEXT,Ntext,Image数据类型

c、必须配制如下选项 ANSI_NULLS = ON, ANSI_PADDINGS = ON, …….

26、尽量将数据的处理工作放在服务器上,减少网络的开销,如使用存储过程。存储过程是编译好、优化过、并且被组织到一个执行规划里、且存储在数据库中的SQL语句,是控制流语言的集合,速度当然快。反复执行的动态SQL,可以使用临时存储过程,该过程(临时表)被放在Tempdb中。以前由于SQL SERVER对复杂的数学计算不支持,所以不得不将这个工作放在其他的层上而增加网络的开销。SQL2000支持UDFs,现在支持复杂的数学计算,函数的返回值不要太大,这样的开销很大。用户自定义函数象光标一样执行的消耗大量的资源,如果返回大的结果采用存储过程

27、不要在一句话里再三的使用相同的函数,浪费资源,将结果放在变量里再调用更快

28、SELECT COUNT(*)的效率教低,尽量变通他的写法,而EXISTS快.同时请注意区别: select count(Field of null) from Table 和 select count(Field of NOT null) from Table 的返回值是不同的!!!

29、当服务器的内存够多时,配制线程数量 = 最大连接数+5,这样能发挥最大的效率;否则使用 配制线程数量<最大连接数启用SQL SERVER的线程池来解决,如果还是数量 = 最大连接数+5,严重的损害服务器的性能。

30、按照一定的次序来访问你的表。如果你先锁住表A,再锁住表B,那么在所有的存储过程中都要按照这个顺序来锁定它们。如果你(不经意的)某个存储过程中先锁定表B,再锁定表A,这可能就会导致一个死锁。如果锁定顺序没有被预先详细的设计好,死锁很难被发现

31、通过SQL Server Performance Monitor监视相应硬件的负载 Memory: Page Faults / sec计数器如果该值偶尔走高,表明当时有线程竞争内存。如果持续很高,则内存可能是瓶颈。

MySQL SQL 是导致系统性能下降的常见根源,严重影响用户体验和数据库稳定性。解决 SQL 需要 **系统性排查 + 精准优化**。 以下是从 **发现 → 定位 → 分析 → 优化 → 预防** 的完整解决方案,并附上可执行代码与命令。 --- ## ✅ 一、第一步:如何发现 SQL? ### 1. 开启 MySQL 慢查询日志(Slow Query Log) ```ini # my.cnf 或 my.ini 配置文件中添加 [mysqld] slow_query_log = ON slow_query_log_file = /var/log/mysql/slow.log long_query_time = 1 # 超过1秒的SQL记录 log_queries_not_using_indexes = ON # 记录未使用索引的SQL log_slow_admin_statements = ON # 记录ALTER等管理语句 ``` 👉 重启 MySQL 生效: ```bash sudo systemctl restart mysql ``` 或动态开启(无需重启): ```sql SET GLOBAL slow_query_log = 'ON'; SET GLOBAL long_query_time = 1; SET GLOBAL log_output = 'FILE'; -- 或 'TABLE' SET GLOBAL slow_query_log_file = '/var/log/mysql/slow.log'; ``` --- ## ✅ 二、第二步:分析慢查询日志 ### 方法 1:手动查看日志(适合少量数据) ```bash tail -f /var/log/mysql/slow.log ``` 输出示例: ```text # Time: 2025-04-05T10:00:01.123456Z # User@Host: webuser[webuser] @ [192.168.1.100] # Query_time: 2.345678 Lock_time: 0.000123 Rows_sent: 1 Rows_examined: 100000 SET timestamp=1743847201; SELECT * FROM orders WHERE user_id = 123 AND status = 'PAID'; ``` 关键指标: - `Query_time`: 执行时间 >1s 就应关注 - `Rows_examined`: 扫描行数过多(如 10万+)→ 缺少索引 - `Rows_sent`: 返回行数太少但扫描多 → 不必要的全表扫描 --- ### 方法 2:使用 `pt-query-digest` 工具分析(推荐!) 安装 Percona Toolkit: ```bash # Ubuntu/Debian sudo apt-get install percona-toolkit # CentOS/RHEL sudo yum install https://repo.percona.com/yum/percona-release-latest.noarch.rpm sudo yum install percona-toolkit ``` 运行分析: ```bash pt-query-digest /var/log/mysql/slow.log > slow-report.txt ``` 报告内容包括: - 最的 Top 10 SQL - 执行次数最多但总耗时高的 SQL - 是否有全表扫描、临时表、文件排序等问题 --- ## ✅ 三、第三步:定位问题 SQL 并分析执行计划 对每条 SQL 使用 `EXPLAIN` 分析执行路径: ```sql EXPLAIN SELECT * FROM orders WHERE user_id = 123 AND status = 'PAID'; ``` 重点关注字段: | 列名 | 含义 | 正常值 | |------|------|--------| | `id` | 查询序号 | — | | `select_type` | 查询类型 | SIMPLE, PRIMARY | | `table` | 表名 | — | | `partitions` | 分区 | NULL 表示没分区 | | `type` | 访问类型 | `ref`, `range`, `index` ✅;`ALL` ❌ 全表扫描 | | `possible_keys` | 可能用的索引 | — | | `key` | 实际使用的索引 | 应该非 NULL | | `key_len` | 索引长度 | 越短越好 | | `ref` | 索引比较对象 | 如 `const`, `column` | | `rows` | 预估扫描行数 | 越小越好 | | `filtered` | 过滤比例 | 高为好 | | `Extra` | 额外信息 | ❌ `Using filesort`, `Using temporary` | --- ## ✅ 四、第四步:常见问题及优化方案 ### 📌 问题 1:全表扫描(`type=ALL`) ❌ 原因:没有合适的索引 ✅ 解决:添加索引 ```sql -- 错误示例 SELECT * FROM orders WHERE user_id = 123; -- 添加索引 ALTER TABLE orders ADD INDEX idx_user_id (user_id); -- 复合条件?建复合索引 ALTER TABLE orders ADD INDEX idx_user_status (user_id, status); ``` > ⚠️ 注意最左前缀原则:`WHERE status='PAID' AND user_id=123` 也能命中 `(user_id, status)` --- ### 📌 问题 2:回表过多(索引覆盖不足) ❌ 现象:虽然用了索引,但仍需回到主键查数据 ✅ 解决:使用“覆盖索引” ```sql -- 如果只查这几个字段 SELECT user_id, status, amount FROM orders WHERE user_id = 123; -- 建立覆盖索引(包含所有查询字段) ALTER TABLE orders ADD INDEX idx_covering (user_id, status, amount); ``` 此时 `Extra=Using index` → 直接从索引获取数据,不回表! --- ### 📌 问题 3:排序(`Using filesort`) ❌ 现象:ORDER BY 字段无索引 ✅ 解决:给排序字段加索引 ```sql -- 慢查询 SELECT * FROM orders WHERE user_id = 123 ORDER BY create_time DESC; -- 优化:创建联合索引(where + order by) ALTER TABLE orders ADD INDEX idx_user_time (user_id, create_time); ``` 这样既能快速定位用户订单,又能避免排序。 --- ### 📌 问题 4:分页深(LIMIT 10000, 20) ❌ 现象:跳过大量行 → 性能急剧下降 ✅ 解决:用主键或唯一字段分页 ```sql -- :跳过1万行 SELECT * FROM orders ORDER BY id LIMIT 10000, 20; -- 快:基于上次最大ID继续查询 SELECT * FROM orders WHERE id > 10000 ORDER BY id LIMIT 20; ``` 或者使用延迟关联: ```sql SELECT o.* FROM orders o INNER JOIN ( SELECT id FROM orders ORDER BY create_time LIMIT 10000, 20 ) t ON o.id = t.id; ``` --- ### 📌 问题 5:N+1 查询(应用层问题) ❌ 示例 Java 代码: ```java List<User> users = userDao.findAll(); // 1次查询 for (User u : users) { List<Order> orders = orderDao.findByUserId(u.getId()); // N次查询 } ``` ✅ 解决:批量查询 or JOIN ```sql -- 改成一次查询 SELECT u.*, o.* FROM users u LEFT JOIN orders o ON u.id = o.user_id WHERE u.status = 'ACTIVE'; ``` 或拆分为两个查询: 1. 查所有用户 2. `SELECT * FROM orders WHERE user_id IN (?, ?, ?)` 批量查订单 --- ## ✅ 五、第五步:SQL 重写技巧 ### 技巧 1:避免函数操作字段 ❌ : ```sql SELECT * FROM orders WHERE YEAR(create_time) = 2024; ``` ✅ 快: ```sql SELECT * FROM orders WHERE create_time >= '2024-01-01' AND create_time < '2025-01-01'; ``` 原因:函数会导致索引失效! --- ### 技巧 2:避免 SELECT \* ❌ 浪费带宽、增加回表概率 ```sql SELECT * FROM large_table; ``` ✅ 明确指定字段: ```sql SELECT id, name, email FROM users WHERE active = 1; ``` --- ### 技巧 3:合理使用 JOIN 和子查询 一般建议: - 小表驱动大表(LEFT JOIN 时小表在左) - 避免三层以上嵌套 - 使用 `STRAIGHT_JOIN` 强制连接顺序(必要时) --- ## ✅ 六、第六步:数据库配置调优 ```ini # my.cnf [mysqld] # 缓冲池(越大越好,通常设为物理内存 70%~80%) innodb_buffer_pool_size = 4G # 日志文件大小(减少刷盘频率) innodb_log_file_size = 256M # 连接数 max_connections = 500 # 排序缓冲区 sort_buffer_size = 2M read_buffer_size = 128K join_buffer_size = 256K # 查询缓存(MySQL 8.0 已移除,5.7 可用) query_cache_type = 1 query_cache_size = 64M ``` > 💡 建议使用 [MySQLTuner](https://github.com/major/MySQLTuner) 自动评估配置合理性: ```bash wget http://mysqltuner.pl perl mysqltuner.pl ``` --- ## ✅ 七、预防机制:建立 SQL 防御体系 ### 1. 开发规范 - 所有上线 SQL 必须经过 DBA 审核 - 禁止 `SELECT *` - 禁止无 WHERE 的 DELETE/UPDATE - 新增字段必须考虑索引设计 ### 2. 上线前压测 + 日志监控 ```bash # 压测工具 sysbench --db-driver=mysql --time=60 --threads=10 --report-interval=5 oltp_read_write run ``` ### 3. 使用 APM 监控生产环境 SQL 如: - Alibaba Druid Monitor - SkyWalking - Prometheus + mysqld_exporter 设置告警规则: - 单条 SQL > 1s 触发警告 - 每分钟出现 >5 条 SQL 触发严重告警 --- ## ✅ 八、总结: SQL 解决思路流程图 ```text 发现 SQL? ↓ → 开启 slow_query_log ↓ → 使用 pt-query-digest 分析 ↓ → 定位 Top SQL ↓ → EXPLAIN 分析执行计划 ↓ → 判断问题类型: ├─ 缺索引? → 加索引(单列/复合/覆盖) ├─ 回表多? → 改为覆盖索引 ├─ 排序? → 给 ORDER BY 加索引 ├─ 分页深? → 主键分页 or 延迟关联 ├─ N+1? → 批量查询 or JOIN └─ 写法差? → 重写 SQL(避免函数、SELECT *) ↓ → 优化后验证效果(对比 TPS、响应时间) ↓ → 建立监控 + 告警 + 审计机制 ``` --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蚁库

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值