SQL优化:从30248s优化到1ms,这周班没白加

本文详细介绍了如何通过SQL优化提升查询效率,包括使用索引、子查询转连接查询、多列联合索引、最左前缀匹配和索引覆盖策略,以降低MySQL查询时间,特别是在大数据场景下。

在这里插入图片描述

图片

今天这篇文章的分享主题是SQL优化,深入了解如何提升SQL查询效率、以及降低系统负载。

无论你是数据库管理员还是开发者,都不能错过这份关于SQL性能优化的实用指南

场景

用的数据库是mysql5.6,下面先简单介绍下场景。

课程表

create table Course(
c_id int PRIMARY KEY,
name varchar(10)
)

数据100条。

学生表

create table Student(
id int PRIMARY KEY,
name varchar(10)
)

数据70000条。

学生成绩表

CREATE table SC(
    sc_id int PRIMARY KEY,   
    s_id int,  
    c_id int,  
    score int
)

数据70w条。

查询目的:

查找语文考100分的考生。

查询语句:

select s.* from Student s
where s.s_id in (  
    select s_id   
    from SC sc   
    where sc.c_id = 0 and sc.score = 100 )

执行时间:30248.271s

晕,为什么这么慢,先来查看下查询计划:

EXPLAIN
select s.* from Student s 
  where s.s_id in ( 
    select s_id  
    from SC sc  
    where sc.c_id = 0 and sc.score = 100 )

图片

发现没有用到索引,type全是ALL,那么首先想到的就是建立一个索引,建立索引的字段当然是在where条件的字段。

先给sc表的c_idscore建个索引。

CREATE index sc_c_id_index on SC(c_id);
CREATE index sc_score_index on SC(score);

再次执行上述查询语句,时间为: 1.054s

快了3w多倍,大大缩短了查询时间,看来索引能极大程度的提高查询效率,建索引很有必要,很多时候都忘记建。

索引了,数据量小的的时候压根没感觉,这优化的感觉挺爽。

但是1s的时间还是太长了,还能进行优化吗,仔细看执行计划:

图片

查看优化后的sql:

SELECT
    `YSB`.`s`.`s_id` AS `s_id`,  
    `YSB`.`s`.`name` AS `name`
FROM  
    `YSB`.`Student` `s`
WHERE   
    < in_optimizer > (     
        `YSB`.`s`.`s_id` ,< EXISTS > (     
            SELECT          
                1         
            FROM           
                `YSB`.`SC` `sc`    
            WHERE          
                (          
                  (`YSB`.`sc`.`c_id` = 0)                  
                  AND (`YSB`.`sc`.`score` = 100)                 
                  AND (    
                      < CACHE > (`YSB`.`s`.`s_id`) = `YSB`.`sc`.`s_id`                   
                  )    
              )     
      ) 
  )

补充:这里有网友问怎么查看优化后的语句。

方法如下:

在命令窗口执行

图片

有type=all

按照我之前的想法,该sql的执行的顺序应该是先执行子查询。

select s_id
from SC sc 
where sc.c_id = 0 and sc.score = 100

耗时:0.001s

得到如下结果:

图片

然后再执行

select s.* 
from Student s 
where s.s_id in(7,29,5000)

耗时:0.001s

这样就是相当快了啊,Mysql竟然不是先执行里层的查询,而是将sql优化成了exists子句,并出现了EPENDENT SUBQUERY,

mysql是先执行外层查询,再执行里层的查询,这样就要循环70007*8次。

那么改用连接查询呢?

SELECT s.* from
Student s
INNER JOIN SC sc
on sc.s_id = s.s_id
where sc.c_id=0 and sc.score=100

这里为了重新分析连接查询的情况,先暂时删除索引sc_c_id_indexsc_score_index

执行时间是:0.057s

效率有所提高,看看执行计划:

图片

这里有连表的情况出现,我猜想是不是要给sc表的s_id建立个索引

CREATE index sc_s_id_index on SC(s_id);
show index from SC

图片

在执行连接查询

时间: 1.076s, 竟然时间还变长了,什么原因?查看执行计划:

图片

优化后的查询语句为:

SELECT  
    `YSB`.`s`.`s_id` AS `s_id`,   
    `YSB`.`s`.`name` AS `name`
FROM   
    `YSB`.`Student` `s`
JOIN `YSB`.`SC` `sc`
WHERE  
    (     
        (         
            `YSB`.`sc`.`s_id` = `YSB`.`s`.`s_id`       
        )   
        AND (`YSB`.`sc`.`score` = 100)    
        AND (`YSB`.`sc`.`c_id` = 0)  
    )

貌似是先做的连接查询,再进行的where条件过滤。

回到前面的执行计划:

图片

这里是先做的where条件过滤,再做连表,执行计划还不是固定的,那么我们先看下标准的sql执行顺序:

图片

正常情况下是先join再进行where过滤,但是我们这里的情况,如果先join,将会有70w条数据发送join做操,因此先执行where 。

过滤是明智方案,现在为了排除mysql的查询优化,我自己写一条优化后的sql 。

SELECT   
    s.*
FROM   
    (     
        SELECT      
            *     
        FROM       
            SC sc   
        WHERE       
            sc.c_id = 0    
        AND sc.score = 100  
    ) t
INNER JOIN Student s ON t.s_id = s.s_id

即先执行sc表的过滤,再进行表连接,执行时间为:0.054s

和之前没有建s_id索引的时间差不多。

查看执行计划:

图片

先提取sc再连表,这样效率就高多了,现在的问题是提取sc的时候出现了扫描表,那么现在可以明确需要建立相关索引。

CREATE index sc_c_id_index on SC(c_id);
CREATE index sc_score_index on SC(score);

再执行查询:

SELECT   
    s.*
FROM   
    (    
        SELECT     
            *    
        FROM      
            SC sc    
        WHERE        
            sc.c_id = 0    
        AND sc.score = 100   
    ) t
INNER JOIN Student s ON t.s_id = s.s_id

**执行时间为:0.001s,**这个时间相当靠谱,快了50倍。

执行计划:

图片

我们会看到,先提取sc,再连表,都用到了索引。

那么再来执行下sql。

SELECT s.* from
Student s
INNER JOIN SC sc
on sc.s_id = s.s_id
where sc.c_id=0 and sc.score=100

执行时间0.001s

执行计划:

图片

这里是mysql进行了查询语句优化,先执行了where过滤,再执行连接操作,且都用到了索引。

补充:最近又重新导入一些生产数据,经测试发现,前几天优化完的sql执行效率又变低了。

调整内容为SC表的数据增长到300W,学生分数更为离散。

先回顾下:

show index from SC

图片

执行sql

SELECT s.* from
Student s
INNER JOIN SC sc
on sc.s_id = s.s_id
where sc.c_id=81 and sc.score=84

执行时间:0.061s,这个时间稍微慢了点。执行计划:

图片

这里用到了intersect并集操作,即两个索引同时检索的结果再求并集,再看字段score和c_id的区分度。

单从一个字段看,区分度都不是很大,从SC表检索,c_id=81检索的结果是70001,score=84的结果是39425。

c_id=81 and score=84 的结果是897,即这两个字段联合起来的区分度是比较高的,因此建立联合索引查询效率。

将会更高,从另外一个角度看,该表的数据是300w,以后会更多,就索引存储而言,都是不小的数目,随着数据量的增加,索引就不能全部加载到内存,而是要从磁盘去读取,这样索引的个数越多,读磁盘的开销就越大,因此根据具体。

业务情况建立多列的联合索引是必要的,那么我们来试试吧。

alter table SC drop index sc_c_id_index;
alter table SC drop index sc_score_index;
create index sc_c_id_score_index on SC(c_id,score);

执行上述查询语句,消耗时间为:0.007s,这个速度还是可以接受的。

执行计划:

图片

该语句的优化暂时告一段落。

总结

  1. mysql嵌套子查询效率确实比较低
  2. 可以将其优化成连接查询
  3. 连接表时,可以先用where条件对表进行过滤,然后做表连接
    (虽然mysql会对连表语句做优化)
  4. 建立合适的索引,必要时建立多列联合索引
  5. 学会分析sql执行计划,mysql会对sql进行优化,所以分析执行计划很重要

索引优化

上面讲到子查询的优化,以及如何建立索引,而且在多个字段索引时,分别对字段建立了单个索引。

后面发现其实建立联合索引效率会更高,尤其是在数据量较大,单个列区分度不高的情况下。

单列索引

查询语句如下:

select * from user_test_copy where sex = 2 and type = 2 and age = 10

索引:

CREATE index user_test_index_sex on user_test_copy(sex);
CREATE index user_test_index_type on user_test_copy(type);
CREATE index user_test_index_age on user_test_copy(age);

分别对sex,type,age字段做了索引,数据量为300w,查询时间:0.415s执行计划:

图片

发现type=index_merge

这是mysql对多个单列索引的优化,对结果集采用intersect并集操作

多列索引

我们可以在这3个列上建立多列索引,将表copy一份以便做测试

create index user_test_index_sex_type_age on user_test(sex,type,age);

查询语句:

select * from user_test where sex = 2 and type = 2 and age = 10

执行时间:0.032s,快了10多倍,且多列索引的区分度越高,提高的速度也越多

执行计划:

图片

最左前缀

多列索引还有最左前缀的特性:

执行以下语句:

select * from user_test where sex = 2
select * from user_test where sex = 2 and type = 2
select * from user_test where sex = 2 and age = 10

都会使用到索引,即索引的第一个字段sex要出现在where条件中

索引覆盖

就是查询的列都建立了索引,这样在获取结果集的时候不用再去磁盘获取其它列的数据,直接返回索引数据即可

如:

select sex,type,age from user_test where sex = 2 and type = 2 and age = 10

执行时间:0.003s

要比取所有字段快的多

排序

select * from user_test where sex = 2 and type = 2 ORDER BY user_name

时间:0.139s

在排序字段上建立索引会提高排序的效率

create index user_name_index on user_test(user_name)

最后附上一些sql调优的总结,以后有时间再深入研究

  1. 列类型尽量定义成数值类型,且长度尽可能短,如主键和外键,类型字段等等

  2. 建立单列索引

  3. 根据需要建立多列联合索引
    当单个列过滤之后还有很多数据,那么索引的效率将会比较低,即列的区分度较低,
    那么如果在多个列上建立索引,那么多个列的区分度就大多了,将会有显著的效率提高。

  4. 根据业务场景建立覆盖索引
    只查询业务需要的字段,如果这些字段被索引覆盖,将极大的提高查询效率

  5. 多表连接的字段上需要建立索引 这样可以极大的提高表连接的效率

  6. where条件字段上需要建立索引

  7. 排序字段上需要建立索引

  8. 分组字段上需要建立索引

  9. Where条件上不要使用运算函数,以免索引失效

任务描述 本关任务:根据第二、三、四关与本关知识点,用Python实现支持向量机,并通过鸢尾花数据集中鸢尾花的2种属性与种类对支持向量机模型进行训练。我们会调用你训练好的支持向量机模型,来对未知的鸢尾花进行分类。 相关知识 为了完成本关任务,你需要掌握:1.软间隔。 数据集介绍 数据集为鸢尾花数据,一共有150个样本,每个样本有4个特征,由于支持向量机是一个二分类模型,这里我们只利用其中两个特征与两种类别构造与训练模型,且支持向量机算法返回的值为1与-1,所以要将标签为0的数据改为-1部分数据如下图: 数据获取代码: #获取并处理鸢尾花数据 def create_data(): iris = load_iris() df = pd.DataFrame(iris.data, columns=iris.feature_names) df['label'] = iris.target df.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label'] data = np.array(df.iloc[:100, [0, 1, -1]]) #将标签为0的数据标签改为-1 for i in range(len(data)): if data[i,-1] == 0: data[i,-1] = -1 return data[:,:2], data[:,-1] 软间隔 假如现在有一份数据分布如下图: 按照支持向量机的思想,黄色的线就是最佳的决策边界。很明显,这条线的泛化性不是很好,造成这样结果的原因就是数据中存在着异常点,那么如何解决这个问题呢,支持向量机引入了软间隔最大化的方法来解决。 所谓的软间隔,是相对于硬间隔说的,即之前我们所讲的支持向量机学习方法。回顾下硬间隔最大化的条件: min 2 1 ​ ∣∣w∣∣ 2 s.t.y i ​ (w T x+b)≥1 接着我们再看如何可以软间隔最大化呢?SVM对训练集里面的每个样本(x i ​ ,y i ​ )引入了一个松弛变量ξ i ​ ≥0,使函数间隔加上松弛变量大于等于1,也就是说: y i ​ (w T x+b)≥1−ξ 对比硬间隔最大化,可以看到我们对样本到超平面的函数距离的要求放松了,之前是一定要大于等于1,现在只需要加上一个大于等于0的松弛变量能大于等于1就可以了。也就是允许支持向量机在一些样本上出错,如下图: 当然,松弛变量不能白加,这是有成本的,每一个松弛变量ξ i ​ , 对应了一个代价ξ i ​ ,这个就得到了我们的软间隔最大化的支持向量机,模型如下: min 2 1 ​ ∣∣w∣∣ 2 +C i=1 ∑ m ​ ξ i ​ s.t.y i ​ (w T x i ​ +b)≥1−ξ i ​ ξ i ​ ≥0 这里,C>0为惩罚参数,可以理解为我们一般回归和分类问题正则化时候的参数。C越大,对误分类的惩罚越大,C越小,对误分类的惩罚越小。也就是说,我们希望权值的二范数尽量小,误分类的点尽可能的少。C是协调两者关系的正则化惩罚系数。在实际应用中,需要调参来选择。 同样的,使用拉格朗日函数将软间隔最大化的约束问题转化为无约束问题,利用相同的方法得到数学模型: max( i=1 ∑ m ​ α i ​ − 2 1 ​ i=1 ∑ m ​ j=1 ∑ m ​ α i ​ α j ​ y i ​ y j ​ x i T ​ x j ​ ) s.t. i=1 ∑ m ​ α i ​ y i ​ =0 C−α i ​ −μ i ​ =0 α i ​ ≥0 μ i ​ ≥0 这就是软间隔最大化时的线性可分支持向量机的优化目标形式,和之前的硬间隔最大化的线性可分支持向量机相比,我们仅仅是多了一个约束条件: 0≤α i ​ ≤C 编程要求 根据提示,在右侧编辑器补充 Python 代码,实现支持向量机算法,并利用训练好的模型对鸢尾花数据进行分类。 测试说明 只需返回分类结果即可,程序内部会检测您的代码,预测正确率高于95%视为过关。
11-18
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

你不懂、、、

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值