mysql评审_SQL业务审核与优化

本文详细介绍了MySQL评审的重要性,包括业务审核、Schema设计和SQL语句的审核要点,强调了提前发现问题并进行优化的必要性。文章还探讨了如何在业务开发的不同阶段进行SQL审核,以及如何通过优化SQL提升性能,如分析查询执行路径、优化慢查询、避免全表扫描和优化分页查询。此外,还介绍了MySQL查询优化器的工作原理、优化策略以及慢查询日志分析技巧,提供了实用的优化建议和案例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

审核

什么是业务审核

类似与code review

评审业务Schema和SQL设计

偏重关注性能

是业务优化的主要入口之一

审核提前发现问题,进行优化

上线后通过监控或巡检发现问题,进行优化

Schema设计审核

表和字段命名是否合规

字段类型,长度设计是否适当

表关联关系是否合理

主键,更新时间保留字段等是否符合要求

约束,默认值等配置是否恰当

了解业务,表数据量,增长模式

数据访问模式,均衡度

根据业务需求,表是否需要分区,是否有数据什么周期

SQL语句审核

SQL语句的执行频率

表上是否有合适的索引

单次执行的成本

执行模式,锁情况分析

关注事务上下文

什么时候需要审核

业务开发阶段,上线前

业务版本变更,线上更新前

新表和SQL上线

SQL查询条件变化

SQL查询频率变化

业务逻辑导致现有表数据量规模变化

业务发布流程

SQL审核需要开发与应用运维支持

充分沟通,做好必要性说明和教育工作

指定业务发布流程,嵌入DBA审核环节

积累经验,不断完善评审方法

慢查询

查询优化,索引优化,库表结构优化需要齐头并进。

慢查询两个步骤分析:

确认应用程序是否向数据库请求了大量超过需要的数据

确认mysql服务器层是否在处理大量超过需要的数据记录

是否向数据库请求了不需要的数据

典型案例:

查询不需要的记录

多表关联时返回全部列

总是取出全部列

重复查询相同的数据

mysql是否在扫描额外的记录

在确定查询只返回需要的数据后,接下来应该看看查询为了返回结果是否扫描了过多的数据。

mysql查询开销的三个指标:

响应时间

扫描的行数

返回的行数

这三个指标都会记录到mysql的慢日志中,索引检查慢日志记录是找出扫描行数过多的查询的好办。

响应时间:执行时间和等待时间;

判断一个响应时间是否是合理的值,可以使用"快速上限估计"。

扫描的行数和返回的行数

分析查询时,查看该查询扫描的行数是非常有帮助的。它一定程度上说明该查询找到需要的数据的效率高不高。

如果发现查询需要扫描大量的数据但只返回少数的行,优化方法:

使用索引覆盖扫描,把所有需要用的列都放到索引中。

改变库表结构。例如使用单独的汇总表

重写这个复杂的查询,让mysql优化器能够以更优化的方式执行这个查询。

有的时候将大查询分解为多个小查询是有必要的。

查询执行的基础

mysql查询执行路径

1fef42b3098bd696875f926e7065e926.png

5697229.html

客服端发送一条查询给服务器

服务器先检查缓存。如果命中缓存,则立刻返回结果。否则进入下一阶段。

服务器端进行SQL解析,预处理,再由优化器生成对应的执行计划。

mysql根据优化器生成的执行计划,调用存储引擎的API来执行查询。

将结果返回给客户端

mysql客户端/服务器通信协议

mysql客户端和服务器之间的通信协议是"半双工"。任何时候只能一方发;不能同时发送;

mysql连接时线程状态

mysql> show fullprocesslist;+----+------+-----------+--------+---------+------+-------+------------------------+

| Id | User | Host | db | Command | Time | State | Info |

+----+------+-----------+--------+---------+------+-------+------------------------+

| 39 | root | localhost | sakila | Sleep | 4 | | NULL |

| 40 | root | localhost | sakila | Query | 0 | NULL | show full processlist |

+----+------+-----------+--------+---------+------+-------+------------------------+

2 rows in set (0.00 sec)

查询优化器

一条查询可以有很多种执行方式,最后都返回相同的结果。

优化器的作用就是找到这其中最好的执行计划。

mysql使用基于成本的优化器,它将尝试预测一个查询使用某种执行计划时的成本,并选择其中成本最小的一个。

通过查询当前会话的last_query_cost的值来得知Mysql计算的当前查询的成本。

mysql> select count(*) fromfilm_actor;+----------+

| count(*) |

+----------+

| 5462 |

+----------+

1 row in set (0.00sec)

mysql> show status like 'last_query_cost';+-----------------+-------------+

| Variable_name | Value |

+-----------------+-------------+

| Last_query_cost | 1040.599000 |

+-----------------+-------------+

这个结果表示mysql优化器认为大概需要做1040个数据页的随机查找才能完成上面的查询。这是根据一系列的统计信息计算得来的:每个表或者索引的页面个数,索引的基数(索引中不同值的数量),索引和数据行的长度,索引分布情况。

优化器在评估成本的时候并不考虑任何层面的缓存,它假设读取任何数据都需要一次磁盘I/O。

mysql优化器选错执行计划的原因:

统计信息不准确

执行计划中的成本估算不等同于实际执行的成本。

有的计划虽然要读取更多页,但是这些页在缓存中。

mysql的最有可能和你想的最优不一样。

比如你希望执行时间尽可能的短,而mysql只是基于成本模型选择的最优执行计划。

mysql从不考虑其他并发执行的查询,这可能会影响到当前查询速度。

mysql不会考虑不受其控制的操作的成本。

如执行存储过程或者用户自定义函数的成本

优化策略:

静态优化

直接对解析树进行分析,并完成优化。优化器通过一些简单的代数变换将where条件转换成另一种等价形式。静态优化在第一次完成后一直有效。可以认为这是一种"编译时优化"

动态优化

动态优化和查询的上下文有关。也和其他很多因素有关,例如where中的取值,索引中条目,等等。每次查询的时候都重新评估,可以认为这是一种"运行时优化"

mysql能够处理的优化类型

重新定义关联表的顺序。

将外联结转成内连接

使用等价变化规则

合并和减少一些比较,移除一些恒成立和一些恒不成立的判断

优化count(),min(),max(),min()就直接拿BTree树最左端数据行

预估并转换为常数表达式

覆盖索引扫描

子查询优化

提前终止查询

等值传播

在查询中添加hint,提示优化器,

优化器的局限性

1 关联子查询

mysql的子查询实现得非常糟糕;最糟糕的一类查询是where条件中包含IN()的子查询语句。

例如,我们希望找到sakila数据库中,演员actor_id为1,参演过的所有影片信息。很自然的,我们会按照下面的方式

mysql> select * from film where film_id in ( select film_id from film_actor where actor_id =1) \G;

我们一般认为,mysql会首先将子查询的actor_id=1的所有film_id都找到,然后再去做外部查询,如

select * from film where film_id in (1,23,25,106,140);

然而,mysql不是这样做的。

mysql会将相关的外层表压到子查询中,它认为这样可以更高效率地查找数据行。

当然我们可以使用连接替代子查询重写这个SQL,来优化;

mysql> explain select * from film f inner join film_actor fa where f.film_id=fa.film_id and actor_id =1;+----+-------------+-------+--------+------------------------+---------+---------+-------------------+------+-------+

| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

+----+-------------+-------+--------+------------------------+---------+---------+-------------------+------+-------+

| 1 | SIMPLE | fa | ref | PRIMARY,idx_fk_film_id | PRIMARY | 2 | const | 19 | |

| 1 | SIMPLE | f | eq_ref | PRIMARY | PRIMARY | 2 | sakila.fa.film_id | 1 | |

+----+-------------+-------+--------+------------------------+---------+---------+-------------------+------+-------+

2 rows in set (0.00 sec)

如何用好关联子查询,很多时候,关联子查询也是一种非常合理,自然,甚至是性能最好的写法。

where in()肯定是不行的,但是 where exists()有时是可以的;

2 union的限制

有时,mysql无法将限制条件从外层"下推"到内层,这使得原本能够限制部分返回结果的条件无法应用到内层查询的优化上。

如果希望union的各个子句能够根据limit只取部分结果集,或者希望能够先拍下再合并结果集的话,就需要在union的各个子句中分别使用这些子句。

如:

(selectfirst_name,last_namefromsakila.actororder bylast_name)union all(selectfirst_name,last_namefromsakila.customerorder bylast_name)

limit20;

会将actor中200条记录和customer中599条记录放在一个临时表中,然后在从临时表中取出前20条;

(selectfirst_name,last_namefromsakila.actororder bylast_name

limit20)union all(selectfirst_name,last_namefromsakila.customerorder bylast_name

limit20)

limit20;

现在中间的临时表中只会包含40条记录。

3  最大值和最小值优化

对于min()和max()查询,mysql的优化做得并不好。

mysql> explain select min(actor_id) from actor where first_name='PENELOPE';+----+-------------+-------+------+---------------+------+---------+------+------+-------------+

| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

+----+-------------+-------+------+---------------+------+---------+------+------+-------------+

| 1 | SIMPLE | actor | ALL | NULL | NULL | NULL | NULL | 200 | Using where |

+----+-------------+-------+------+---------------+------+---------+------+------+-------------+

1 row in set (0.00 sec)

因为在first_name字段上没有索引,因此mysql将会进行一次全表扫描。

如果mysql能够进行主键扫描,那么理论上,mysql读到第一个满足条件的记录的时候,就是我们需要找的最小值了,因为主键时严格按照actor_id字段的大小顺序排序的。但这仅仅是如果,mysql这时只会做全表扫描。

优化min(),使用limit重写SQL:

mysql> explain select actor_id from actor USE INDEX(PRIMARY) where first_name='PENELOPE' LIMIT 1;+----+-------------+-------+------+---------------+------+---------+------+------+-------------+

| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

+----+-------------+-------+------+---------------+------+---------+------+------+-------------+

| 1 | SIMPLE | actor | ALL | NULL | NULL | NULL | NULL | 200 | Using where |

+----+-------------+-------+------+---------------+------+---------+------+------+-------------+

1 row in set (0.00 sec)

看着实验结果,似乎没有使用 主键索引,不知道是什么原因导致.欢迎交流。

4  在同一个表上查询和更新

mysql不允许,对同一张表进行查询和更新:

mysql> update tbl ASouter_tblset cnt =(select count(*) from tbl ASinner_tblwhere inner_tbl.type =outer_tbl.type

);

error:you can't specify target table'outer_tbl'for update in from clause

可以使用内连接来绕过这个限制。实际上,这执行了两个查询:一个是子查询中的select语句,另一个是多表关联update,只是关联的表是一个临时表。

mysql> updatetblinner join(select type,count(*) AScntfromtblgroup bytype

)ASder using(type)set tbl.cnt =der.cnt;

优化器的提示(hint)

如果对优化器选择的执行计划不满意,可以使用优化器提供的几个提示(hint)来控制最终的执行计划。

HIGH_PRIORITY,LOW_PRIORITY

这个提示告诉mysql,当多个语句同时访问某一个表的时候,哪些语句的优先级相对高些,哪些语句的优先级相对低些。

只对使用表锁的存储引擎有效,不要在innodb或者其他有细粒度锁机制和并发控制的引擎中使用。

DELAYED

这个提示对insert,replace有效。mysql会将使用该提示的语句立即返回给客户端,并将插入的行数据放入到缓冲区,然后在表空间时批量将数据写入。

日志系统使用这样的提示非常有效,或者是其他需要写入大量数据但是客户端却不需要等待单条语句完成I/O的应用。这个用法有一些限制:并不是所有的存储引擎都支持这样的做法;并且该提示会导致函数LAST_INSERT_ID无法正常工作。

USE INDEX,IGNORE INDEX ,FORCE INDEX

慢查询分析

1 show status 了解各SQL的执行频率

默认使用参数为,session;可以使用global;

mysql> show status like 'com%';+---------------------------+-------+

| Variable_name | Value |

+---------------------------+-------+

| Com_admin_commands | 0 |

| Com_assign_to_keycache | 0 |

| Com_alter_db | 0 |

| Com_alter_procedure | 0 |

| Com_alter_server | 0 |

| Com_alter_table | 0 |

com_xxx表示每个xxx语句执行的次数:

com_select: 执行select操作的次数,一次查询只累加一次;

com_insert: 执行insert操作的次数,对于批量插入的insert操作,只累加一次;

com_update: 执行update操作的次数

com_delete:  执行delete操作的次数

上面这些参数对于所有存储引擎的表操作都会进行累计。下面几个参数只是针对innodb存储引擎,累加算法也略有不同。

innodb_rows_read: select查询返回的行数

innodb_rows_inserted: 执行insert操作插入的行数

innodb_rows_updated: 执行update操作更新的行数

innodb_rows_deleted:  执行delete操作删除的行数

通过以上参数,很容易了解当前数据库的应用是以插入更新为主还是以查询操作为主,大致的读写比例是多少;

可以通过com_commit 和 com_rollback 可以知道,事务回滚的比例;

如果比例过高则说明应用编写存在问题;

connections:  试图连接mysql服务器的次数

uptime:  服务器工作时间

slow_queries: 慢查询的次数;

2 定位低效 SQL

慢查询日志,定位低效SQL;long_query_time,慢查询的标准时间;

慢查询是,查询结束之后才记录;因此他不是实时的;show processlist 查看mysql在进行的线程,查看线程的一些状态,可以实时地查看SQL的执行情况;

3 explain分析低效查询SQL的执行计划

mysql> explain select b from t where a =1;+----+-------------+-------+------+---------------+------+---------+-------+------+-------------+

| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

+----+-------------+-------+------+---------------+------+---------+-------+------+-------------+

| 1 | SIMPLE | t | ref | a | a | 5 | const | 1 | Using where |

+----+-------------+-------+------+---------------+------+---------+-------+------+-------------+

1 row in set (0.00 sec)

当然explain也可以来查询使用了什么索引;

select_type

simple:简单表,即不使用表链接或者子查询

Primary:主查询,即外层的查询

union:union中的第二个或者后面的查询语句

subquery: 子查询中的第一个select

table:输出结果集的表

type:访问类型

all,全表扫描

index,索引全扫描

range,索引范围扫描,常见于< , >,between

ref,使用非唯一索引扫描或唯一索引的前缀扫描,返回匹配某个单独值的记录行

eq_ref,类似ref,区别在于使用了唯一索引;

const/system,表中最多有一个匹配行;Primary key 或 unique index;

null,不用访问表或者索引就可以得到结果

possible_keys:表示查询时可能使用的索引

key: 表示实际使用的索引

key_len: 使用到索引字段的长度

rows:扫描行的数量

extra:执行情况的说明和描述;

使用explain extended,可以得到更清晰易读的SQL,多出了warning,可以进一步分析SQL;

当然如果表 有分区,那么使用explain partition 可以找到select到底是在哪个分区查询的;

4 show profile 分析SQL

查看mysql是否支持profile;

mysql> select @@have_profiling;+------------------+

| @@have_profiling |

+------------------+

| YES |

+------------------+

查看profiling是否开启,默认关闭:

mysql> select @@profiling;+-------------+

| @@profiling |

+-------------+

| 0 |

+-------------+

1 row in set (0.00sec)

开启profiling:

mysql> set profiling=1;

Query OK,0 rows affected (0.00 sec)

通过profile,我们能够更清楚地了解SQL执行的过程。

如何使用:

mysql> select count(*) frompayment;+----------+

| count(*) |

+----------+

| 16049 |

+----------+

1 row in set (0.02 sec)

通过show profiles,找到对应SQL的 query id;

mysql>show profiles;+----------+------------+------------------------------+

| Query_ID | Duration | Query |

+----------+------------+------------------------------+

| 1 | 0.01064275 | select count(*) from payment |

| 2 | 0.00048225 | show databases |

| 3 | 0.00015000 | show DATABASE() |

| 4 | 0.00039975 | show tables |

+----------+------------+------------------------------+

通过show profile for query id ,分析具体的SQL;

能够看到执行过程中线程的每个状态和消耗的时间;

mysql> show profile for query 4;+----------------------+----------+

| Status | Duration |

+----------------------+----------+

| starting | 0.000058 |

| checking permissions | 0.000009 |

| Opening tables | 0.000050 |

| System lock | 0.000008 |

| init | 0.000012 |

| optimizing | 0.000005 |

| statistics | 0.000012 |

| preparing | 0.000010 |

| executing | 0.000007 |

| checking permissions | 0.000132 |

| Sending data | 0.000042 |

| end | 0.000007 |

| query end | 0.000007 |

| closing tables | 0.000005 |

| removing tmp table | 0.000009 |

| closing tables | 0.000006 |

| freeing items | 0.000015 |

| logging slow query | 0.000005 |

| cleaning up | 0.000006 |

+----------------------+----------+

19 rows in set (0.00 sec)

在获取到最消耗时间的线程状态后,mysql支持进一步选择all,cpu,block io ,context switch,page faults等明细类型来查看mysql在使用什么资源上耗费了过高的时间。

例如选择查看cup的消耗时间:

mysql> show profile cpu for query 4;+----------------------+----------+----------+------------+

| Status | Duration | CPU_user | CPU_system |

+----------------------+----------+----------+------------+

| starting | 0.000058 | 0.000000 | 0.000000 |

| checking permissions | 0.000009 | 0.000000 | 0.000000 |

| Opening tables | 0.000050 | 0.000000 | 0.000000 |

| System lock | 0.000008 | 0.000000 | 0.000000 |

| init | 0.000012 | 0.000000 | 0.000000 |

| optimizing | 0.000005 | 0.000000 | 0.000000 |

| statistics | 0.000012 | 0.000000 | 0.000000 |

| preparing | 0.000010 | 0.000000 | 0.000000 |

| executing | 0.000007 | 0.000000 | 0.000000 |

| checking permissions | 0.000132 | 0.000000 | 0.000000 |

| Sending data | 0.000042 | 0.000000 | 0.000000 |

| end | 0.000007 | 0.000000 | 0.000000 |

| query end | 0.000007 | 0.000000 | 0.000000 |

| closing tables | 0.000005 | 0.000000 | 0.000000 |

| removing tmp table | 0.000009 | 0.000000 | 0.000000 |

| closing tables | 0.000006 | 0.000000 | 0.000000 |

| freeing items | 0.000015 | 0.000000 | 0.000000 |

| logging slow query | 0.000005 | 0.000000 | 0.000000 |

| cleaning up | 0.000006 | 0.000000 | 0.000000 |

+----------------------+----------+----------+------------

show profile 能够在做SQL优化时帮助我们了解时间都耗费到哪里去了;

而mysql5.6则通过trace文件进一步向我们展示了优化器是如何选择执行计划的。

5 通过trace 分析优化器如何选择执行计划

提供了对SQL的跟踪trace,通过trace文件能够进一步了解为什么优化器选择A执行计划而不选择B执行计划,帮助我们更好地理解优化器的行为。

使用方式:

首先打开trace,设置格式为json,设置trace最大能够使用的内存大小,避免解析过程中因为默认内存过小而不能完整显示。

然后执行select;

最后在,information_schema.optimizer_trace中查看跟踪文件;

索引问题

索引是数据库优化中最常用也是最重要的手段之一,通过索引通常可以帮助用户解决大多数的SQL性能问题。

索引的存储分类

索引是在mysql的存储引擎层中实现的,而不是在服务器层实现的。

B-Tree 索引:大部分引擎都支持B-Tree索引

HASH索引:只有memory引擎支持,使用场景简单。

R-Tree索引:空间索引,Myisam引擎的一个特殊索引类型,主要用于地理空间数据类型

Full-text:全文索引

前缀索引,大大缩小索引文件的大小,但是在order by 和 group by 操作的时候无法使用前缀索引。

查看所有使用情况

mysql> show status like 'Handler_read%';+-----------------------+-------+

| Variable_name | Value |

+-----------------------+-------+

| Handler_read_first | 1 |

| Handler_read_key | 6 |

| Handler_read_last | 0 |

| Handler_read_next | 16050 |

| Handler_read_prev | 0 |

| Handler_read_rnd | 0 |

| Handler_read_rnd_next | 297 |

+-----------------------+-------+

7 rows in set (0.00 sec)

Handler_read_key :值高,证明索引正在工作;值低,说明增加索引得到的性能改善不高,因为索引不经常使用

Handler_read_rnd_next:值高,意味着查询效率低,应该建立索引补救;

优化方法

定期分析表和检查表

分析表:

mysql> analyze tablestore;+--------------+---------+----------+----------+

| Table | Op | Msg_type | Msg_text |

+--------------+---------+----------+----------+

| sakila.store | analyze | status | OK |

+--------------+---------+----------+----------+

1 row in set (0.00 sec)

本语句用于分析和存储表的关键字分布,分析的结果将可以使得系统得到准确的统计信息,是的SQL能够生成正确的执行计划。

如果用户感觉实际执行计划并不是预期的执行计划,执行一次分析表可能会解决问题。

检查表:

mysql> check tablestore;+--------------+-------+----------+----------+

| Table | Op | Msg_type | Msg_text |

+--------------+-------+----------+----------+

| sakila.store | check | status | OK |

+--------------+-------+----------+----------+

1 row in set (0.01sec)

检查表的作用是检查一个或多个表是否有错误。

check table 也可以检查视图是否有错误,比如在视图定义中被引用的表已经不存在;

定期优化表

优化表:

mysql> optimize tablestore;+--------------+----------+----------+-------------------------------------------------------------------+

| Table | Op | Msg_type | Msg_text |

+--------------+----------+----------+-------------------------------------------------------------------+

| sakila.store | optimize | note | Table does not support optimize, doing recreate + analyze instead |

| sakila.store | optimize | status | OK |

+--------------+----------+----------+-------------------------------------------------------------------+

2 rows in set (0.04 sec)

将表中的空间碎片进行合并,并且可以消除由于删除或者更新造成的空间浪费;

适用于:已经删除了表的一大部分,或者已经对含有可变长度行的表(含有varchar,blob,text)进行了很多更改,此时表中的空间会产生大量的空间碎片;

另外innodb表在删除大量数据后:

可以使用alter table 但是不修改引擎的方式来回收不用的空间:

mysql> alter table payment engine=innodb;

Query OK,16049 rows affected (0.62sec)

Records:16049 Duplicates: 0 Warnings: 0

常用SQL的优化

1 大批量插入数据-load

各个引擎的优化方式是不一样的:

MyIsam 引擎,使用load 导入大批数据时:

alter table tbl_name disable keys;

load data infile '/home/mysql/film_test3.txt' into table film_test4;

alter table tbl_name enable keys;

导入前,使索引失效,导入完成之后,在启用索引;

innodb引擎:

因为innodb的表是按照主键的顺序保存的,索引将导入的数据按照主键的顺序排序,可以有效地提高导入数据的效率;

在导入数据前执行 set unique_checks=0 ,关闭唯一性校验,在导入结束后执行 set unique_checks=1,恢复唯一性校验;

如果应用使用自动提交的方式,建议在导入前执行:set  autocommit=0,关闭自动提交,在导入完成之后,再开启;

2 优化insert语句

使用多个值表的insert比单个insert语句快,因为多值表一起插入,缩减了客户端与数据库之间的连接,关闭等消耗;

insert into test values(1,2),(2,3),(3,4).....

将索引文件和数据文件分在不同的磁盘上存放(利用建表中的选项)

当从一个文本装载一个表时,使用load data infile ,这通常比使用很多insert 语句快20倍;

如果从不同客户插入很多行,insert delayed 语句得到更高的速度;将数据都放入内存中,然后合并一起insert,减少客户端与数据库的交互

3 优化order by 语句

mysql中有两种排序方式

第一种通过有序索引顺序扫描直接返回有序数据,这种方式在使用explain 分析查询的时候显示为useing index,不需要额外的排序,操作效率较高。

第二种是通过返回数据进行排序,也就是filesort排序,所有不是通过索引直接返回排序结果的排序都叫filesort排序。

1.索引排序

例子:

mysql> alter table customer add indexidx_email_storeid (email,store_id);

Query OK,0 rows affected (0.04sec)

Records:0 Duplicates: 0 Warnings: 0mysql> explain select store_id,email, customer_id from customer order byemail\G;*************************** 1. row ***************************id:1select_type: SIMPLEtable: customer

type:indexpossible_keys:NULL

key: idx_email_storeid

key_len:154ref:NULLrows:652Extra: Usingindex

1 row in set (0.00 sec)

可以看到,此时只使用了索引顺序,没有使用filesort;

如果将索引改成:

mysql> alter table customer drop indexidx_email_storeid;

Query OK,0 rows affected (0.01sec)

Records:0 Duplicates: 0 Warnings: 0mysql> alter table customer add indexidx_storeid_email (store_id,email);

Query OK,0 rows affected (0.03sec)

Records:0 Duplicates: 0 Warnings: 0mysql> explain select store_id,email, customer_id from customer order byemail\G;*************************** 1. row ***************************id:1select_type: SIMPLEtable: customer

type:indexpossible_keys:NULL

key: idx_storeid_email

key_len:154ref:NULLrows:652Extra: Usingindex; Using filesort1 row in set (0.00 sec)

可以看到,此时使用到了filesort 这种额外排序,这显然会增加开销;

可见,索引最左端原则,order by email,那么email 这一列在索引中应该在最左端,这样才能够只使用索引排序,而不用使用filesort;

优化目标:

尽量减少额外的排序,通过索引直接返回有序数据。

到达这目的要求:where 条件和 order by 使用相同的索引,并且order by 的顺序和索引顺序相同,并且order by的字段都是升序或者降序。否则肯定需要额外的排序操作,这样就会出现filesort;

总结:

下列SQL可以使用索引:

select * from tabname order by key_part1,key_part2,......;

select * from tabname where key_part1=1 order by key_part1 DESC, key_part2 DESC;

select * from tabname order by key_part1 DESC, key_part2 DESC;

下列不可以使用索引:

select * from tabname order by key_part1 desc ,key_part2 asc;

order by 的字段混合 ASC,DESC

select * from tabname  where key2 = 2 order by key1;

用于查询行的关键字与order by 中使用的不相同

select * from tabname order by key1,key2;

2.filesort的优化

通过创建合适的索引能够减少filesort出现,但是在某些情况下,条件限制不能让filesort消失,那就需要想办法加快filesort的操作。

mysql有两种排序算法:

两次扫描算法:首先根据条件取出排序字段和行指针信息,之后在排序区sort buffer中排序。优点是排序的时候内存开销较小,但排序效率低;

一次扫描算法:一次性去除满足条件的行的所有字段,然后在排序区sort buffer中排序后直接输出结果。优点排序效率比两次扫描高,但内存开销大;

mysql通过max_length_for_sort_data的大小和query语句取出的字段总大小来判断使用哪种排序算法;

如果max_length_for_sort_data 大 则使用一次扫描算法,如果小则使用 两次扫描算法;

4  优化group by 语句

默认情况下,group by col1,col2, 的字段进行排序。这当然会造成额外消耗;要消除这种不必要的排序,可以使用 order by null 来禁止排序;

mysql> explain select payment_date,sum(amount) from payment group bypayment_date \G;*************************** 1. row ***************************id:1select_type: SIMPLEtable: payment

type:ALLpossible_keys:NULL

key: NULLkey_len:NULLref:NULLrows:16451Extra: Usingtemporary; Using filesort1 row in set (0.01 sec)

使用order by null优化group by

mysql> explain select payment_date,sum(amount) from payment group by payment_date ORDER BY NULL\G;*************************** 1. row ***************************id:1select_type: SIMPLEtable: payment

type:ALLpossible_keys:NULL

key: NULLkey_len:NULLref:NULLrows:16451Extra: Usingtemporary

1 row in set (0.00 sec)

5 优化嵌套查询

子查询可以被更有效率的连接(join)替代;

连接(join)之所以更有效率一些,因为mysql不需要在内存中创建临时表来完成这个逻辑上需要两个步骤的查询工作;

6 mysql 如何优化or条件

对于含有or的查询子句,如果要利用索引,则or之间的每个条件列都必须用到索引;如果没有索引,则应该考虑增加索引;

mysql在处理含有or子句的查询时,实际是对or的各个字段分别查询后的结果进行了union 操作;

但是在建有符合索引的列 company_id 和moneys上面做or操作时,却不能用到索引;

7 优化分页查询

延迟关联,它让mysql扫描尽可能少的页面,索取需要访问的记录后再根据关联列回原表查询需要的所有列。

考虑下面的查询:

mysql> explain select film_id,description from film order by title limit 50,5;+----+-------------+-------+------+---------------+------+---------+------+------+----------------+

| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

+----+-------------+-------+------+---------------+------+---------+------+------+----------------+

| 1 | SIMPLE | film | ALL | NULL | NULL | NULL | NULL | 1134 | Using filesort |

+----+-------------+-------+------+---------------+------+---------+------+------+----------------+

1 row in set (0.00 sec)

使用"延迟关联":

mysql> explain select film_id,description from film inner join ( select film_id from film order by title limit 50,5) ASlim using(film_id);+----+-------------+------------+--------+---------------+-----------+---------+-------------+------+-------------+

| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

+----+-------------+------------+--------+---------------+-----------+---------+-------------+------+-------------+

| 1 | PRIMARY | | ALL | NULL | NULL | NULL | NULL | 5 | |

| 1 | PRIMARY | film | eq_ref | PRIMARY | PRIMARY | 2 | lim.film_id | 1 | |

| 2 | DERIVED | film | index | NULL | idx_title | 767 | NULL | 55 | Using index |

+----+-------------+------------+--------+---------------+-----------+---------+-------------+------+-------------+

3 rows in set (0.00 sec)

首先,让film_id使用索引,找到对应film_id,然后再回表找到对应description的数据列。这样,是延迟了列的访问,所以叫延迟关联;其实是分别找出对应列的数据行;

使用书签记录

offset,它会导致mysql扫描大量不需要的行然后再抛弃掉。

可以使用书签记录上次数据的位置,那么下次就可以直接从书签记录的位置开始扫描,这样就可以避免使用offset;

首先获得第一组结果:

mysql> select * from rental order by rental_id limit 5;+-----------+---------------------+--------------+-------------+---------------------+----------+---------------------+

| rental_id | rental_date | inventory_id | customer_id | return_date | staff_id | last_update |

+-----------+---------------------+--------------+-------------+---------------------+----------+---------------------+

| 1 | 2005-05-24 22:53:30 | 367 | 130 | 2005-05-26 22:04:30 | 1 | 2006-02-15 21:30:53 |

| 2 | 2005-05-24 22:54:33 | 1525 | 459 | 2005-05-28 19:40:33 | 1 | 2006-02-15 21:30:53 |

| 3 | 2005-05-24 23:03:39 | 1711 | 408 | 2005-06-01 22:12:39 | 1 | 2006-02-15 21:30:53 |

| 4 | 2005-05-24 23:04:41 | 2452 | 333 | 2005-06-03 01:43:41 | 2 | 2006-02-15 21:30:53 |

| 5 | 2005-05-24 23:05:21 | 2079 | 222 | 2005-06-02 04:33:21 | 1 | 2006-02-15 21:30:53 |

+-----------+---------------------+--------------+-------------+---------------------+----------+---------------------+

之后从书签开始再找:

mysql> select * from rental where rental_id > 5 order by rental_id limit 5;+-----------+---------------------+--------------+-------------+---------------------+----------+---------------------+

| rental_id | rental_date | inventory_id | customer_id | return_date | staff_id | last_update |

+-----------+---------------------+--------------+-------------+---------------------+----------+---------------------+

| 6 | 2005-05-24 23:08:07 | 2792 | 549 | 2005-05-27 01:32:07 | 1 | 2006-02-15 21:30:53 |

| 7 | 2005-05-24 23:11:53 | 3995 | 269 | 2005-05-29 20:34:53 | 2 | 2006-02-15 21:30:53 |

| 8 | 2005-05-24 23:31:46 | 2346 | 239 | 2005-05-27 23:33:46 | 2 | 2006-02-15 21:30:53 |

| 9 | 2005-05-25 00:00:40 | 2580 | 126 | 2005-05-28 00:22:40 | 1 | 2006-02-15 21:30:53 |

| 10 | 2005-05-25 00:02:21 | 1824 | 399 | 2005-05-31 22:44:21 | 2 | 2006-02-15 21:30:53 |

+-----------+---------------------+--------------+-------------+---------------------+----------+---------------------+

5 rows in set (0.00 sec)

总结

mysql客户端和服务器间:半双工

show processlist,实时查看SQL执行情况;

查询优化器:

统计信息:

每个表/索引的页面个数,

索引的基数,索引和数据行的长度,索引分布情况;

不考虑任何缓存假设数据读取需要一次IO;

优化策略:

静态优化,“编译时优化”

动态优化“运行时优化”

查询优化器的局限:

关联子查询,使用连接替代(5.6之后优化器已经自动优化了);

union限制,需每个子句都limit 20控制临时表数量;

最大值和最小值优化,不能自动更据主键ID 选择;

不允许在同一表上更新和查询,可以使用内连接跳过限制;

hint:

use index

ignore index

force index

慢查询分析:

show status like 'com%':

了解读写比例;

事务回滚比例;

视图连接mysql服务器的次数;

慢查询的次数;

定位低效SQL:慢查询日志

explain分析低效SQL:

explain extended 可以得到更清晰易读的SQL,多出来warning;

explain partition 找到select到底是在哪个分区查询;

show profile 分析SQL:

show profile 能够在做SQL优化时帮助我们了解时间都耗费到哪里去了;

通过show profiles 找出query id,

通过show profile for query id 分析具体的SQL;能够看到执行过程中线程的每个状态和消耗的时间;也能根据cpu,io,等具体参数;

trace:5.6之后可以使用,通过trace文件能够进一步了解为什么优化器选择A执行计划而不选择B执行计划,帮助我们更好地理解优化器的行为

索引使用情况:

show status like 'Handler_read%'

Handler_read_key:值高,证明索引正在工作;值低,说明增加索引得到的性能改善不高,因为索引不经常使用;

Handler_read_rnd_next:值高,意味着查询效率低,应该建立索引补救;

定期分析表和检查表:使系统得到准确的统计信息,使优化器更好工作;

常用SQL优化:

load:

myisam,导入前,使索引失效,导入后,开启索引;

innodb,关闭唯一性校验

insert:多值表插入,

order by:

索引排序:

where条件和order by使用相同索引

order by 的顺序和索引顺序相同

order by 字段都是升序或降序,

filesort:两次扫描算法,一次扫描算法;

group by:group by 默认对字段排序,使用order by null 来禁止排序;

子查询可以使用连接代替

or条件使用索引需要左右都要有索引段;

分页查询

“延迟关联”,

“首先获得第一组,然后使用书签方式”

将大查询分解为多个小查询

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值