大数据量分页优化

用limit offset ,时并不是先跳过再查询

而是 ,先查询,再跳过 

limit 100w,10  先把100w取出来,然后跳过前100w行,

所以大数据分页用limit很慢

select id,name from lx_com 5000000,10 先查询出来5000000

select id,name from lx_com inner join (select id from lx_com limit 5000000,10) as tmp using(id);  先用索引覆盖,查询到第500w行,在去关联下面的数据

分析: 优化思路是 不查,少查,查索引,少取.

我们现在必须要查,则只查索引,不查数据,得到id.

再用id去查具体条目.  这种技巧就是延迟索引.延迟关联磁盘数据

转载于:https://www.cnblogs.com/microtiger/p/7568456.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值