写点什么

mysql 查询 limit 1000,10 和 limit 10 速度一样快吗?如果我要分页,我该怎么办?

作者:Java快了!
  • 2022 年 9 月 06 日
    湖南
  • 本文字数:3979 字

    阅读完需:约 13 分钟

刷网站的时候,我们经常会遇到需要分页查询的场景。

比如下图红框里的翻页功能。



我们很容易能联想到可以用 mysql 实现。

假设我们的建表 sql 是这样的



建表 sql 大家也不用扣细节,只需要知道 id 是主键,并且在 user_name 建了个非主键索引就够了,其他都不重要。

为了实现分页。

很容易联想到下面这样的 sql 语句。

select * from page order by id limit offset, size;
复制代码

比如一页有 10 条数据。



第一页就是下面这样的 sql 语句。

select * from page order by id limit 0, 10;
复制代码

第一百页就是

select * from page order by id limit 990, 10;
复制代码

那么问题来了。

用这种方式,同样都是拿 10 条数据,查第一页和第一百页的查询速度是一样的吗?为什么?

两种 limit 的执行过程

上面的两种查询方式。对应 limit offset, sizelimit size 两种方式。

而其实 limit size ,相当于 limit 0, size。也就是从 0 开始取 size 条数据。

也就是说,两种方式的区别在于 offset 是否为 0。

我们先来看下 limit sql 的内部执行逻辑。



mysql 内部分为 server 层存储引擎层。一般情况下存储引擎都用 innodb。

server 层有很多模块,其中需要关注的是执行器是用于跟存储引擎打交道的组件。

执行器可以通过调用存储引擎提供的接口,将一行行数据取出,当这些数据完全符合要求(比如满足其他 where 条件),则会放到结果集中,最后返回给调用 mysql 的客户端(go、java 写的应用程序)

我们可以对下面的 sql 先执行下 explain

explain select * from page order by id limit 0, 10;
复制代码

可以看到,explain 中提示 key 那里,执行的是 PRIMARY,也就是走的主键索引



主键索引本质是一棵 B+树,它是放在 innodb 中的一个数据结构。

我们可以回忆下,B+树大概长这样。



在这个树状结构里,我们需要关注的是,最下面一层节点,也就是叶子结点。而这个叶子结点里放的信息会根据当前的索引是主键还是非主键有所不同。

  • 如果是主键索引,它的叶子节点会存放完整的行数据信息。

  • 如果是非主键索引,那它的叶子节点则会存放主键,如果想获得行数据信息,则需要再跑到主键索引去拿一次数据,这叫回表

比如执行

select * from page where user_name = "小白10";
复制代码

会通过非主键索引去查询 user_name 为"小白 10"的数据,然后在叶子结点里找到"小白 10"的数据对应的主键为 10

此时回表到主键索引中做查询,最后定位到主键为 10 的行数据



但不管是主键还是非主键索引,他们的叶子结点数据都是有序的。比如在主键索引中,这些数据是根据主键 id 的大小,从小到大,进行排序的。

基于主键索引的 limit 执行过程

那么回到文章开头的问题里。

当我们去掉 explain,执行这条 sql。

select * from page order by id limit 0, 10;
复制代码

上面 select 后面带的是星号* ,也就是要求获得行数据的所有字段信息。

server 层会调用 innodb 的接口,在 innodb 里的主键索引中获取到第 0 到 10 条完整行数据,依次返回给 server 层,并放到 server 层的结果集中,返回给客户端。

而当我们把 offset 搞离谱点,比如执行的是

select * from page order by id limit 6000000, 10;
复制代码

server 层会调用 innodb 的接口,由于这次的 offset=6000000,会在 innodb 里的主键索引中获取到第 0 到(6000000 + 10)条完整行数据返回给 server 层之后根据 offset 的值挨个抛弃,最后只留下最后面的 size 条,也就是 10 条数据,放到 server 层的结果集中,返回给客户端。

可以看出,当 offset 非 0 时,server 层会从引擎层获取到很多无用的数据,而获取的这些无用数据都是要耗时的。

因此,我们就知道了文章开头的问题的答案,mysql 查询中 limit 1000,10 会比 limit 10 更慢。原因是 limit 1000,10 会取出 1000+10 条数据,并抛弃前 1000 条,这部分耗时更大

那这种 case 有办法优化吗?

可以看出,当 offset 非 0 时,server 层会从引擎层获取到很多无用的数据,而当 select 后面是*号时,就需要拷贝完整的行信息,拷贝完整数据只拷贝行数据里的其中一两个列字段耗时是不同的,这就让原本就耗时的操作变得更加离谱。

因为前面的 offset 条数据最后都是不要的,就算将完整字段都拷贝来了又有什么用呢,所以我们可以将 sql 语句修改成下面这样。

select * from page  where id >=(select id from page  order by id limit 6000000, 1) order by id limit 10;
复制代码

上面这条 sql 语句,里面先执行子查询 select id from page order by id limit 6000000, 1, 这个操作,其实也是将在 innodb 中的主键索引中获取到6000000+1条数据,然后 server 层会抛弃前 6000000 条,只保留最后一条数据的 id。

但不同的地方在于,在返回 server 层的过程中,只会拷贝数据行内的 id 这一列,而不会拷贝数据行的所有列,当数据量较大时,这部分的耗时还是比较明显的。

在拿到了上面的 id 之后,假设这个 id 正好等于 6000000,那 sql 就变成了

select * from page  where id >=(6000000) order by id limit 10;
复制代码

这样 innodb 再走一次主键索引,通过 B+树快速定位到 id=6000000 的行数据,时间复杂度是 lg(n),然后向后取 10 条数据。

这样性能确实是提升了,亲测能快一倍左右,属于那种耗时从 3s 变成 1.5s 的操作。

这······

属实有些杯水车薪,有点搓,属于没办法中的办法。

基于非主键索引的 limit 执行过程

上面提到的是主键索引的执行过程,我们再来看下基于非主键索引的 limit 执行过程。

比如下面的 sql 语句

select * from page order by user_name  limit 0, 10;
复制代码

server 层会调用 innodb 的接口,在 innodb 里的非主键索引中获取到第 0 条数据对应的主键 id 后,回表到主键索引中找到对应的完整行数据,然后返回给 server 层,server 层将其放到结果集中,返回给客户端。

而当 offset>0 时,且 offset 的值较小时,逻辑也类似,区别在于,offset>0 时会丢弃前面的 offset 条数据。

也就是说非主键索引的 limit 过程,比主键索引的 limit 过程,多了个回表的消耗。

但当 offset 变得非常大时,比如 600 万,此时执行 explain。



可以看到 type 那一栏显示的是 ALL,也就是全表扫描

这是因为 server 层的优化器,会在执行器执行 sql 语句前,判断下哪种执行计划的代价更小。

很明显,优化器在看到非主键索引的 600w 次回表之后,摇了摇头,还不如全表一条条记录去判断算了,于是选择了全表扫描。

因此,当 limit offset 过大时,非主键索引查询非常容易变成全表扫描。是真·性能杀手

这种情况也能通过一些方式去优化。比如

select * from page t1, (select id from page order by user_name limit 6000000, 100) t2  WHERE t1.id = t2.id;
复制代码

通过select id from page order by user_name limit 6000000, 100。 先走 innodb 层的 user_name 非主键索引取出 id,因为只拿主键 id,不需要回表,所以这块性能会稍微快点,在返回 server 层之后,同样抛弃前 600w 条数据,保留最后的 100 个 id。然后再用这 100 个 id 去跟 t1 表做 id 匹配,此时走的是主键索引,将匹配到的 100 条行数据返回。这样就绕开了之前的 600w 条数据的回表。

当然,跟上面的 case 一样,还是没有解决要白拿 600w 条数据然后抛弃的问题,这也是非常挫的优化。

像这种,当 offset 变得超大时,比如到了百万千万的量级,问题就突然变得严肃了。

这里就产生了个专门的术语,叫深度分页

深度分页问题

深度分页问题,是个很恶心的问题,恶心就恶心在,这个问题,它其实无解

不管你是用 mysql 还是 es,你都只能通过一些手段去"减缓"问题的严重性。

遇到这个问题,我们就该回过头来想想。

为什么我们的代码会产生深度分页问题?

它背后的原始需求是什么,我们可以根据这个做一些规避。

如果你是想取出全表的数据

有些需求是这样的,我们有一张数据库表,但我们希望将这个数据库表里的所有数据取出,异构到 es,或者 hive 里,这时候如果直接执行

select * from page;
复制代码

这个 sql 一执行,狗看了都摇头。

因为数据量较大,mysql 根本没办法一次性获取到全部数据,妥妥超时报错

于是不少 mysql 小白会通过limit offset size分页的形式去分批获取,刚开始都是好的,等慢慢地,哪天数据表变得奇大无比,就有可能出现前面提到的深度分页问题。

这种场景是最好解决的。

我们可以将所有的数据根据 id 主键进行排序,然后分批次取,将当前批次的最大 id 作为下次筛选的条件进行查询。

可以看下伪代码



这个操作,可以通过主键索引,每次定位到 id 在哪,然后往后遍历 100 个数据,这样不管是多少万的数据,查询性能都很稳定。



如果是给用户做分页展示

如果深度分页背后的原始需求只是产品经理希望做一个展示页的功能,比如商品展示页,那么我们就应该好好跟产品经理 battle 一下了。

什么样的翻页,需要翻到 10 多万以后,这明显是不合理的需求。

是不是可以改一下需求,让它更接近用户的使用行为?

比如,我们在使用谷歌搜索时看到的翻页功能。



一般来说,谷歌搜索基本上都在 20 页以内,作为一个用户,我就很少会翻到第 10 页之后。

作为参考。

如果我们要做搜索或筛选类的页面的话,就别用 mysql 了,用 es,并且也需要控制展示的结果数,比如一万以内,这样不至于让分页过深。

如果因为各种原因,必须使用 mysql。那同样,也需要控制下返回结果数量,比如数量 1k 以内。

这样就能勉强支持各种翻页,跳页(比如突然跳到第 6 页然后再跳到第 106 页)。

但如果能从产品的形式上就做成不支持跳页会更好,比如只支持上一页或下一页



这样我们就可以使用上面提到的 start_id 方式,采用分批获取,每批数据以 start_id 为起始位置。这个解法最大的好处是不管翻到多少页,查询速度永远稳定。

听起来很挫?

怎么会呢,把这个功能包装一下。

变成像抖音那样只能上划或下划,专业点,叫瀑布流

是不是就不挫了?



总结

  • limit offset, sizelimit size 要慢,且 offset 的值越大,sql 的执行速度越慢。

  • 当 offset 过大,会引发深度分页问题,目前不管是 mysql 还是 es 都没有很好的方法去解决这个问题。只能通过限制查询数量或分批获取的方式进行规避。

  • 遇到深度分页的问题,多思考其原始需求,大部分时候是不应该出现深度分页的场景的,必要时多去影响产品经理。

  • 如果数据量很少,比如 1k 的量级,且长期不太可能有巨大的增长,还是用limit offset, size 的方案吧,整挺好,能用就行。


用户头像

Java快了!

关注

还未添加个人签名 2022.09.03 加入

还未添加个人简介

评论

发布
暂无评论
mysql查询 limit 1000,10 和limit 10 速度一样快吗?如果我要分页,我该怎么办?_MySQL_Java快了!_InfoQ写作社区