mysql如何解决深度分页问题

本文探讨了深度分页在高并发应用中导致的性能问题,并提出了解决方案,包括使用额外的搜索条件和代码技巧来减少数据扫描量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

深度分页所存在的问题

我们一般做深度分页的时候, sql语句往往如下:

SELECT * FROM tb_test ORDER BY id DESC LIMIT 10000, 20;

LIMIT 10000 , 20的意思扫描满足条件的10020行,扔掉前面的10000行,返回最后的20行。如果是LIMIT 1000000 , 100,需要扫描1000100 行,在一个高并发的应用里,每次查询需要扫描超过100W行,不慢就没天理了。

 

如何解决问题

一般的解决思路是增加一些搜索条件, 比如将上一次查询的最大id作为下一次查询的一个参数,这样可以大幅减少数据的扫描

SELECT * FROM tb_test where `year` = 2017 and id > XXXX ORDER BY id desc limit 20;

这里有个限制条件,就是我们只能实现页码顺序滚动

如果不得不做深度分页,还有一个代码技巧:


 

# 反例(耗时129.570s)

select * from tb_test LIMIT 20000000, 10;

# 正例(耗时5.114s)

SELECT a.* FROM tb_test a, (select id from tb_test LIMIT 20000000, 10) b where a.id = b.id;

 

 

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值