为什么 LIMIT 0, 10 快,而 LIMIT 1000000, 10 慢?

最近,我的一个朋友在面试中遇到了这样一个问题。在MySQL中,假设一个表中有数千万条记录,为什么带有“LIMIT 0, 10”的查询非常快,而带有“LIMIT 1000000, 10”的查询却非常慢?

让我们一起来分析一下。

首先,假设我们已经创建了一个名为Student的表,并向其中插入了500万条学生记录。以下是创建表和插入部分数据的示例SQL语句:

复制
-- 创建一个名为Student的表来存储学生信息。 CREATETABLE Student ( idINT AUTO_INCREMENT PRIMARY KEY, nameVARCHAR(100), age INT, gender ENUM(Male, Female), create_time TIMESTAMPDEFAULTCURRENT_TIMESTAMP ); -- 插入500万条学生记录的存储过程: DELIMITER // CREATEPROCEDURE insert_students() BEGIN DECLARE i INTDEFAULT1; WHILE i <= 5000000 DO INSERTINTO Student (name, age, gender) VALUES (CONCAT(Student, i), FLOOR(RAND() * 100), ELT(FLOOR(RAND() * 2 + 1), Male, Female)); SET i = i + 1; ENDWHILE; END // DELIMITER ; -- 调用存储过程插入数据。 CALL insert_students();1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.

请注意,插入500万条记录可能需要相对较长的时间,具体时间取决于你的数据库性能。

接下来,我们将分别使用“LIMIT 0, 10”和“LIMIT 1000000, 10”来查询数据。

复制
-- 查询前10个学生。 SELECT * FROM Student LIMIT 0, 10;1.2.

执行结果如下:

复制
mysql> SELECT * FROM Student LIMIT0, 10; +---+-----------+-----+--------+---------------------+ | id | name | age | gender | create_time | +---+-----------+-----+--------+---------------------+ | 1 | Student1 | 71 | Male | 2025-01-01 14:41:15 | | 2 | Student2 | 9 | Male | 2025-01-01 14:41:15 | | 3 | Student3 | 33 | Female | 2025-01-01 14:41:15 | | 4 | Student4 | 56 | Female | 2025-01-01 14:41:15 | | 5 | Student5 | 73 | Female | 2025-01-01 14:41:15 | | 6 | Student6 | 84 | Male | 2025-01-01 14:41:15 | | 7 | Student7 | 50 | Male | 2025-01-01 14:41:15 | | 8 | Student8 | 4 | Male | 2025-01-01 14:41:15 | | 9 | Student9 | 18 | Male | 2025-01-01 14:41:15 | | 10 | Student10 | 8 | Male | 2025-01-01 14:41:15 | +---+-----------+-----+--------+---------------------+ 10 rows in set (0.01 sec)1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.

接下来,我们查询从第1000000条记录开始的10条记录:

复制
mysql> SELECT * FROM Student LIMIT 1000000, 10; Empty set (1.75 sec)1.2.

可以看到,两者的耗时差异非常大,查询从毫秒级变成了秒级!!!

因此,可以看出,LIMIT中的X值越大,查询速度越慢。

这个问题实际上是MySQL中典型的分页深度问题。那么问题来了:为什么随着LIMIT偏移量的增加,查询会变慢?以及如何优化查询速度?

为什么随着LIMIT中X值的增大,查询速度会变慢?

实际上,这主要是因为数据库需要扫描并跳过X条记录,然后才能返回Y条结果。随着X的增加,需要扫描和跳过的记录数量也会增加,从而导致性能下降。

LIMIT 1000000, 10需要扫描1000010行数据,然后丢弃前1000000行,因此查询速度会非常慢。

优化方法

在MySQL中,分页深度问题有两种典型的优化方法:

起始ID定位法:使用上一次查询的最后一个ID作为本次查询的起始ID。覆盖索引 + 子查询。方法1. 起始ID定位法

起始ID定位法意味着在使用LIMIT查询时指定一个起始ID,而这个起始ID是上一次查询的最后一个ID。例如,如果上一次查询的最后一条记录的ID是990000,那么我们从990001开始扫描表,直接跳过前990000条记录,因此查询效率会提高。具体实现SQL如下:

复制
select name, age, gender from student where id > 990000 order by id limit 10;1.

可以看到,查询只用了0.01秒。

复制
mysql> select name, age, gender from student whereid > 990000orderbyidlimit10; +--------------+-----+--------+ | name | age | gender | +--------------+-----+--------+ | Student990001 | 12 | Male | | Student990002 | 84 | Female | | Student990003 | 98 | Male | | Student990004 | 14 | Male | | Student990005 | 93 | Male | | Student990006 | 36 | Male | | Student990007 | 47 | Male | | Student990008 | 82 | Female | | Student990009 | 40 | Male | | Student990010 | 31 | Male | +--------------+-----+--------+ 10 rows in set (0.01 sec)1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.
为什么带有起始ID的查询效率高?

带有起始ID的查询效率高的原因在于它充分利用了数据库中主键索引的B+树结构。上一次查询结束时确定的最后一个ID就像一个准确的定位标记,使得当前查询可以直接从这个标记位置开始。

B+树的叶子节点通过双向链表连接。当有一个确定的起始ID时,数据库不需要像普通的LIMIT查询那样盲目扫描和跳过大量记录,而是可以沿着这个双向链表有针对性地向后遍历,快速找到符合条件的后续记录。

这种方法避免了处理大量无关数据,大大减少了数据库的操作开销,从而显著提高了查询的速度和效率。

如下图所示:

图片

如果上一次查询的结果是9,那么后续再次查询时,只需要从9开始向后遍历N条数据即可得到结果,因此效率非常高。

这种方式避免了从头开始扫描大量数据,而是直接从已知的定位点(即上一次查询的最后一个ID)开始,沿着B+树的双向链表向后遍历,快速找到符合条件的记录。由于不需要扫描和跳过大量无关数据,查询的开销大大减少,从而显著提高了查询效率。

优缺点分析

这种查询方法更适合逐页查询数据,比如在移动应用中浏览新闻时的瀑布流模式。

然而,如果用户在页面之间跳转,例如在查询第1页后直接查询第100页,那么这种实现方法就不太合适了。

方法2. 覆盖索引 + 子查询

如果你仔细观察,可能会注意到我们之前的查询语句没有任何条件,这实际上并不太符合实际应用场景。

假设我们现在有一个需求,要求能够按创建时间的倒序查询学生信息并进行分页。优化前的SQL如下:

复制
select name, age, gender, create_time from student order by create_time desc limit 1000000,10;1.

执行一下,看看在有500万条数据的情况下,查询第100万条记录之后的10条数据需要多长时间。

复制
mysql> select name, age, gender, create_time from student orderby create_time desclimit1000000,10; +----------------+-----+--------+---------------------+ | name | age | gender | create_time | +----------------+-----+--------+---------------------+ | Student#000012 | 15 | Female | 2025-01-01 20:10:19 | | Student#000013 | 88 | Female | 2025-01-01 20:10:19 | | Student#000014 | 31 | Male | 2025-01-01 20:10:19 | | Student#000015 | 96 | Male | 2025-01-01 20:10:19 | | Student#000016 | 61 | Male | 2025-01-01 20:10:19 | | Student#000017 | 90 | Male | 2025-01-01 20:10:19 | | Student#000018 | 45 | Female | 2025-01-01 20:10:19 | | Student#000019 | 14 | Male | 2025-01-01 20:10:19 | | Student#000020 | 70 | Female | 2025-01-01 20:10:19 | | Student#000021 | 2 | Female | 2025-01-01 20:10:19 | +----------------+-----+--------+---------------------+ 10 rows in set (3.36 sec)1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.

可以看到,实际上用了3秒!!!显然,用户会明显感觉到卡顿,用户体验非常差。

让我们再看看如果改成limit 0, 10会花多少时间。

复制
mysql> select name, age, gender, create_time from student orderby create_time desclimit0,10; +----------------+-----+--------+---------------------+ | name | age | gender | create_time | +----------------+-----+--------+---------------------+ | Student5000000 | 29 | Male | 2025-01-01 21:39:19 | | Student4999999 | 1 | Female | 2025-01-01 21:39:19 | | Student4999998 | 0 | Female | 2025-01-01 21:39:19 | | Student4999997 | 44 | Male | 2025-01-01 21:39:19 | | Student4999996 | 83 | Male | 2025-01-01 21:39:19 | | Student4999995 | 93 | Female | 2025-01-01 21:39:19 | | Student4999994 | 32 | Female | 2025-01-01 21:39:19 | | Student4999993 | 90 | Male | 2025-01-01 21:39:19 | | Student4999992 | 21 | Female | 2025-01-01 21:39:19 | | Student4999991 | 68 | Female | 2025-01-01 21:39:19 | +----------------+-----+--------+---------------------+ 10 rows in set (0.00 sec)1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.

几乎感觉不到时间。

那么为什么深度分页会变慢呢?

我相信你肯定会说,因为它会扫描1000010行符合条件的数据,然后丢弃前1000000行再返回。

然而,这并不是唯一的原因。

在上面的SQL中,虽然已经为create_time字段创建了索引,但查询效率仍然很慢。这是因为它需要获取1000000条完整的数据,包括没有索引的字段,如name、age和gender。因此,它需要频繁地回表查找,导致执行效率非常低。

此时,我们可以进行如下优化:

复制
select t1.name, t1.age, t1.gender, t1.create_time from student as t1 inner join (select id from student order by create_time desc limit 1000000,10) as t2 on t1.id = t2.id;1.2.3.

让我们再看看执行时间。

复制
mysql> select t1.name, t1.age, t1.gender, t1.create_time from student as t1 innerjoin (selectidfrom student orderby create_time desclimit1000000,10) as t2 on t1.id = t2.id; +----------------+-----+--------+---------------------+ | name | age | gender | create_time | +----------------+-----+--------+---------------------+ | Student#000012 | 15 | Female | 2025-01-01 20:10:19 | | Student#000013 | 88 | Female | 2025-01-01 20:10:19 | | Student#000014 | 31 | Male | 2025-01-01 20:10:19 | | Student#000015 | 96 | Male | 2025-01-01 20:10:19 | | Student#000016 | 61 | Male | 2025-01-01 20:10:19 | | Student#000017 | 90 | Male | 2025-01-01 20:10:19 | | Student#000018 | 45 | Female | 2025-01-01 20:10:19 | | Student#000019 | 14 | Male | 2025-01-01 20:10:19 | | Student#000020 | 70 | Female | 2025-01-01 20:10:19 | | Student#000021 | 2 | Female | 2025-01-01 20:10:19 | +----------------+-----+--------+---------------------+ 10 rows in set (0.23 sec)1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.

只用了0.23秒。

与原始SQL相比,优化后的SQL有效避免了频繁的回表操作。关键在于子查询只获取了主键ID。通过利用索引覆盖技术,它首先准确定位了少量符合条件的主键ID,然后基于这些主键ID进行后续查询,从而显著提高了查询效率,降低了查询成本。

索引覆盖是一种数据库查询优化技术。它意味着在执行查询时,数据库引擎可以直接从索引中获取所有需要的数据,而不必回表(访问主键索引或表中的实际数据行)来获取额外的信息。这样可以减少磁盘I/O操作,从而提高查询性能。

THE END