一、insert优化
1、建议使用批量插入:因为每一条插入语句都会和数据库建立连接,所以当要插入多条数据时,建议使用批量插入但最好不超过一千条。
2、手动事务提交
3、主键顺序插入
4、大批量插入数据:如果一次性需要插入大批量数据,使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load指令。操作如下:
#客户端连接服务端时,加上参数 --local-infile
mysql --local-infile -u root -p
#设置全局参数local_infile为1,开启本地加载文件导入数据的开关
set global local_infile =1;
#执行load指令将准备好的数据,加载到表结构中
load data local infile ‘/root/sql1.log’ into table ‘tb_user’ fields terminated by ‘,’ lines terminated by ‘\n’;
二、主键优化
1、数据组织方式:在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表(index organized table IOT)。
2、页分裂:页可以为空,也可以填充一半,也可以填充满,每个页包含了2-N行数据(如果一行数据过大,会行溢出),根据主键排列。
主键顺序插入:依次插入页满了则开辟新的页继续插入。
主键乱序插入:如图,第50行的数据要插入到第47行之后,而第一页已经满了,需要开辟一个新的页,将第一页中后二分之一的数据移动到新开辟的页,再将第50行的数据插入,最后修改链表指针,这就是页分裂现象。结果如下:
3、页合并:当删除一行记录时,实际上记录并没有被物理删除,只是被标记为删除并且它的空间变得允许被其他记录声明使用。当页中删除的记录达到MERGE_THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用
MERGE_THRESHOLD:合并页的阈值,可以自己设置,在创建表或者创建索引时指定。
4、主键的设计原则
①满足业务需求的情况下,尽量降低主键的长度。
②插入数据时,尽量使用顺序插入,选择使用AUTO_INCREMENT自增主键。
③尽量不要使用UUID做主键或者其他自然主键,如身份证号。
④业务操作时,避免对主键的修改。
三、order by优化
1、 Using filesort:通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sort buffer中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫Filesort排序。
2、 Using index:通过有序索引顺序扫描直接返回有序数据,这种情况即为using index,不需要额外排序,操作效率高。
#没有创建索引时,根据salary,employee_id进行排序
#创建索引
#创建索引后,根据salary,employee_id进行升序排序
#创建索引后,根据salary,employee_id进行降序排序
#根据salary,employee_id进行一个升序,一个降序
#创建索引(按照salary升序,按employee_id降序)
#根据salary,employee_id进行一个升序,一个降序
#必须按照建立索引的顺序进行排序(下图按照employee_Id,salary进行排序,就出现了using filesort,实际上是违背了最左前缀法则)
#前提:的查询用到的都是覆盖索引
总结:
1、根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则
2、尽量使用覆盖索引
3、多字段排序,一个升序一个降序,此时需注意联合索引在创建时的规则(asc/desc)
4、如果不可避免的出现filesort,大数据量排序时,可以适当增大排序缓冲区大学sort_buffer_size(默认256k)
四、group by优化
#执行分组操作,根据salary字段分组
using temporary:使用临时表,性能不高
#创建索引,以提高效率
#执行分组操作,根据salary字段分组
#分组操作时,索引的使用也是满足最左前缀法则
#有查询条件的分组
五、limit优化
一个常见又非常头疼的问题就是limit 200000,10,此时需要MySQL排序前200010条记录,仅仅返回200000-200010的记录,其他记录丢弃,查询排序的代价非常大。
优化思路:一般分页查询时,通过创建覆盖索引能够比较好地提高性能,可以通过覆盖索引加子查询形式进行优化。
六、count优化
explain select count(*) from tb_user;
1、MyISAM引擎把一个表的总行数存在了磁盘上,因此执行count(*)的时候会直接返回这个数,效率很高。(前提是没有查询条件)
2、InnoDB引擎,它执行count(*)时,需要把数据一行一行地从引擎里面读出来,然后累计计数。
优化思路:自己计数。 插入时计数加一,删除减一,自己维护一个计数。
count的几种用法:
count()是一个聚合函数,对于返回的结果集,一行行的判断,如果count函数的参数不是NULL,累计值就加1,最后返回累计值。
用法:count(*),count(主键),count(字段),count(1);
1、count(主键):InnoDB引擎会遍历整张表,把每一行的主键id值都取出来,返回给服务层。服务层拿到主键后,直接按行进行累加(主键不可能时null)。
2、count(字段):
没有not null 约束 : InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为null,不为null,计数累加。
有not null 约束:InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,直接按行进行累加。
3、count(1):InnoDB 引擎遍历整张表,但不取值。服务层对于返回的每一行,放一个数字“1”进去,直接按行进行累加。
4、count(*):InnoDB引擎并不会把全部字段取出来而是专门做了优化不取值服务层直接按行进行累加
按照效率排序的话,count(字段) < count(主键 id) < count(1) ≈ count(*),所以尽量使用 count(*)。
七、update优化(避免行锁升级为表锁)
update employees last_name ='john' where employee_id = 1;
//此时employees表中这行有锁,其他事务不能操作这行,但可以操作别的行
update employees last_name ='john' where last_name='juice';
//此时行锁会升级为表锁,即其他事务不能操作这个表
//给last_name创建索引
create index emp_ln on employees(last_name);
update employees last_name ='john' where last_name='juice';
//此时就不会升级为表锁
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁 ,并且该索引不能失效,否则会从行锁升级为表锁 。