CREATE TABLE `t` (
`id` int(11) NOT NULL,
`city` varchar(16) NOT NULL,
`name` varchar(16) NOT NULL,
`age` int(11) NOT NULL,
`addr` varchar(128) DEFAULT NULL,
PRIMARY KEY (`id`),
KEY `city` (`city`)
) ENGINE=InnoDB;
select city,name,age from t where city='杭州' order by name limit 1000 ;
图中“按name排序”这个动作,可能在内存中完成,也可能需要使用外部排序,这取决于排序所需的内存和参数sort_buffer_size。
sort_buffer_size,就是MySQL为排序开辟的内存(sort_buffer)的大小。如果要排序的数据量小于sort_buffer_size,排序就在内存中完成。但如果排序数据量太大,内存放不下,则不得不利用磁盘临时文件辅助排序。
以下方法判断是否使用临时文件
/* 打开optimizer_trace,只对本线程有效 */
SET optimizer_trace='enabled=on';
/* @a保存Innodb_rows_read的初始值 */
select VARIABLE_VALUE into @a from performance_schema.session_status where variable_name = 'Innodb_rows_read';
/* 执行语句 */
select city, name,age from t where city='杭州' order by name limit 1000;
/* 查看 OPTIMIZER_TRACE 输出 */
SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\G
/* @b保存Innodb_rows_read的当前值 */
select VARIABLE_VALUE into @b from performance_schema.session_status where variable_name = 'Innodb_rows_read';
/* 计算Innodb_rows_read差值 */
select @b-@a;
这个方法是通过查看 OPTIMIZER_TRACE 的结果来确认的,你可以从 number_of_tmp_files中看到是否使用了临时文件。
12个文件是因为mysql使用归并排序,将数据分成12份分别排序再合并。
如果sort_buffer_size超过了需要排序的数据量大小,则number_of_tmp_files就是0,表示排序可以在内存中完成。
rowid排序
在上面的算法过程里,只对原表的数据读一遍,剩下的操作都在sort_buffer和临时文件中进行。但是这有一个问题,如果查询要返回的字段很多的话,那么sort_buffer里放的字段数太多,这样内存里要放的字段数太多,这样内存里能够同时放下的行数太少,要分成很多临时文件,排序的性能很差。
单行很大的话,这个方法效果不够好。
我们可以设置如下参数,如果单行的长度大于这个参数的话,就会采用rowid排序。
SET max_length_for_sort_data = 16;
排序的思想如下所示,sort_buffer中只加载要排序的字段和主键,排完序后再根据主键id查找结果集。
执行select @b-@a,看看结果是什么呢?
图中examined_rows=4000表示排序的数据是4000,但是select @b-@a这个语句的值变成5000了。因为除了排序过程外,在排序完成后,还要根据id去原表取值,由于语句是limit 1000,因此会多读1000行。
从OPTIMIZER_TRACE的结果中,你还能看到另外两个信息也变了。
sort_mode变成了<sort_key, rowid>,表示参与排序的只有name和id这两个字段。
number_of_tmp_files变成10了,是因为这时候参与排序的行数虽然仍然是4000行,但是每一行都变小了,因此需要排序的总数据量就变小了,需要的临时文件也相应地变少了。
全字段排序 VS rowid排序
如果MySQL实在担心排序内存太小了,会影响排序效率,才会采用rowid排序算法,这样排序过程中一次要排序更多行,但是需要再回原表再取数据。
如果mysql认为内存足够大会优先选择全字段排序,把需要的字段都放入到sort_buffer中,这样排序后就可以直接从内存里返回查询结果了,不用再回到原表再取数据了。
对于innodb表来说,rowid排序会要求回表多次造成磁盘读,因此不会被优先选择。
其实并不是所有order by操作都需要排序的,从上面看mysql之所以需要生成临时表,并且在临时表做排序操作,其原因是原来的数据是无序的。。如果从city取出来的行,天然就是按照name递增排序的话,是不是可以不用再排序了呢?我们可以创建一个city和name的联合索引:
alter table t add index city_user(city, name);
这样整个查询过程的流程就变成了:
从索引(city,name)找到第一个满足city='杭州’条件的主键id;
到主键id索引取出整行,取name、city、age三个字段的值,作为结果集的一部分直接返回;
从索引(city,name)取下一个记录主键id;
重复步骤2、3,直到查到第1000条记录,或者是不满足city='杭州’条件时循环结束。
上面的流程是否可以再进行优化呢?由于每次都需要根据主键进行回表操作。所以可以通过覆盖索引来将回表操作省去。
alter table t add index city_user_age(city, name, age);
整个流程如下:
从索引(city,name,age)找到第一个满足city='杭州’条件的记录,取出其中的city、name和age这三个字段的值,作为结果集的一部分直接返回;
从索引(city,name,age)取下一个记录,同样取出这三个字段的值,作为结果集的一部分直接返回;
重复执行步骤2,直到查到第1000条记录,或者是不满足city='杭州’条件时循环结束。
我们再来看一下explain的结果。
extra字段里多了一个“Using index”,表示使用了覆盖索引,性能上快了很多。