-
Mysql千万级数据量分页查询优化
场景:订单表order,有1千万条记录,orderId为主键
小白程序员: 方案: select * from order where goods_name=‘iphone’
直接全部查出来,然后在内存里截取当前list页的数据,分页 这事我5年前也干过,一家不知名的小公司中级程序员: 方案:中规中距的mysql标准分页写法 select * from order limit start, count
例子: select * from order where goods_name=‘iphone’ limit 10000000,10
可能有的人不知道limit 10000000,10是什么意思,我大概解释一下就是从第10000000行开始查询十行
数据量小可行,数据量大了会特别慢,即使走了索引,也特别慢 原因分析
1.因为数据表是InnoDB引擎,根据InnoDB索引的结构,查询过程为:通过普通索引查到主键值(找出所有goods_name=‘iphone’ 的的id)
再根据查到的主键值通过主键索引找到相应的数据块(根据id找出对应的数据块内容)
根据offset的值,查询10000010次主键索引的数据,最后将之前的10000000条丢弃,取出最后10条(这里应该是导致数据查询缓慢得原因)。高级程序员: 方案: 1)每次请求带会上一页返回数据的最大id,前提是id是自增的,这里取上一页最大id为10000000
select * from order where orderId > 10000000 limit 0,10
通过索引而不是全表扫描来找到数据,再进行分页
2)子查询法
select a.*
from order a JOIN
(select order_id from order where oods_name=‘iphone’ LIMIT
10000000, 10) b on a.order_id=b.order_id总结:内层子查询通过索引扫描先进行分页得到数据,再关联外层查询通过索引查找得到最终数据,因为索引文件比数据文件小,所以内层查询时间耗时相对较小,而且内层查询中只包含索引列(覆盖索引),数据就在查询索引上面,无需进行额外的查找
TIP:因为懒,所以上面需要查的字段用*代替了,大家不要学我啊
Mysql千万级数据量分页查询优化
最新推荐文章于 2025-02-27 10:29:03 发布