mysql中分页查询是非常的简单了同时也给我们大数据量带来了一些麻烦,如果有100万数据我们如果按普通的方法,我估计 你一条都查不出来,下面我来整理自己总结的mysql分页优化方法,希望对各位同学会有所帮助.,SQL分页过多时,例如 limit 1000000,20,效率会明显降低下,如何优化?,SQLServer用的是类似:SELECT top 10 * FROM USER ORDER BY uid ASC ;,MySQL用的是类似:SELECT * FROM USER ORDER BY uid ASC LIMIT 0,10;,如果要显示第二页的数据,通常的做法是如下代码:,SELECT * FROM USER ORDER BY uid ASC LIMIT 10,10;,这样的问题是,当数据量过多,越往后翻页速度越慢,那么有什么简单的解决办法吗?如下几种方式可参考:,一、如果是连续分页查询,可通过上次结果中的最大id,直接定位下一页的数据集合.,1、第一页,代码如下:,SELECT * FROM USER ORDER BY uid ASC LIMIT 0,10;,2、找到最后一条记录的uid,$uid 。,3、第二页,代码如下:,SELECT * FROM USER WHERE uid >$uid ORDER BY uid ASC LIMIT 0,10;,这样的话,由于查询出来的结果集合变小了,所以各方面效率都高,而且后面的limit条件基本不需要改变.,二、对于主见ID连续的表,可以先通过程序计算出所需分页位置的 ID 起始值,然后通过BETWEEN .. AND 方式提交查询.,三、使用子查询获取分页主键值,充分利用主键索引,代码如下:,SELECT t.* FROM ( SELECT id FROM you_table ORDER BY id LIMIT 1000000, 20 ) s JOIN your_table t ON t.id = s.id; www.xiariboke.net
SELECT * FROM your_table WHERE ID >= ( SELECT id FROM your_table ORDER BY id ASC LIMIT 1000001,1) LIMIT 20;,四、采用NoSQL或单独的表作为索引表,或按数据新旧冷热等规则分表存储.,

mysql中分页查询是非常的简单了同时也给我们大数据量带来了一些麻烦,如果有100万数据我们如果按普通的方法,我估计 你一条都查不出来,下面我来整理自己总结的mysql分页优化方法,希望对各位同学会有所帮助.

SQL分页过多时,例如 limit 1000000,20,效率会明显降低下,如何优化?

SQLServer用的是类似:SELECT top 10 * FROM USER ORDER BY uid ASC ;

MySQL用的是类似:SELECT * FROM USER ORDER BY uid ASC LIMIT 0,10;

如果要显示第二页的数据,通常的做法是如下代码:

SELECT * FROM USER ORDER BY uid ASC LIMIT 10,10;

这样的问题是,当数据量过多,越往后翻页速度越慢,那么有什么简单的解决办法吗?如下几种方式可参考:

一、如果是连续分页查询,可通过上次结果中的最大id,直接定位下一页的数据集合.

1、第一页,代码如下:

SELECT * FROM USER ORDER BY uid ASC LIMIT 0,10;

2、找到最后一条记录的uid,$uid 。

3、第二页,代码如下:

SELECT * FROM USER WHERE uid >$uid ORDER BY uid ASC LIMIT 0,10;

这样的话,由于查询出来的结果集合变小了,所以各方面效率都高,而且后面的limit条件基本不需要改变.

二、对于主见ID连续的表,可以先通过程序计算出所需分页位置的 ID 起始值,然后通过BETWEEN .. AND 方式提交查询.

三、使用子查询获取分页主键值,充分利用主键索引,代码如下:

SELECT t.* FROM ( SELECT id FROM you_table ORDER BY id LIMIT 1000000, 20 ) s JOIN your_table t ON t.id = s.id; www.xiariboke.net
SELECT * FROM your_table WHERE ID >= ( SELECT id FROM your_table ORDER BY id ASC LIMIT 1000001,1) LIMIT 20;

四、采用NoSQL或单独的表作为索引表,或按数据新旧冷热等规则分表存储.

,

mysql中分页查询是非常的简单了同时也给我们大数据量带来了一些麻烦,如果有100万数据我们如果按普通的方法,我估计 你一条都查不出来,下面我来整理自己总结的mysql分页优化方法,希望对各位同学会有所帮助.

SQL分页过多时,例如 limit 1000000,20,效率会明显降低下,如何优化?

SQLServer用的是类似:SELECT top 10 * FROM USER ORDER BY uid ASC ;

MySQL用的是类似:SELECT * FROM USER ORDER BY uid ASC LIMIT 0,10;

如果要显示第二页的数据,通常的做法是如下代码:

SELECT * FROM USER ORDER BY uid ASC LIMIT 10,10;

这样的问题是,当数据量过多,越往后翻页速度越慢,那么有什么简单的解决办法吗?如下几种方式可参考:

一、如果是连续分页查询,可通过上次结果中的最大id,直接定位下一页的数据集合.

1、第一页,代码如下:

SELECT * FROM USER ORDER BY uid ASC LIMIT 0,10;

2、找到最后一条记录的uid,$uid 。

3、第二页,代码如下:

SELECT * FROM USER WHERE uid >$uid ORDER BY uid ASC LIMIT 0,10;

这样的话,由于查询出来的结果集合变小了,所以各方面效率都高,而且后面的limit条件基本不需要改变.

二、对于主见ID连续的表,可以先通过程序计算出所需分页位置的 ID 起始值,然后通过BETWEEN .. AND 方式提交查询.

三、使用子查询获取分页主键值,充分利用主键索引,代码如下:

SELECT t.* FROM ( SELECT id FROM you_table ORDER BY id LIMIT 1000000, 20 ) s JOIN your_table t ON t.id = s.id; www.xiariboke.net
SELECT * FROM your_table WHERE ID >= ( SELECT id FROM your_table ORDER BY id ASC LIMIT 1000001,1) LIMIT 20;

四、采用NoSQL或单独的表作为索引表,或按数据新旧冷热等规则分表存储.

最后修改:2025 年 09 月 10 日
如果觉得我的文章对你有用,请随意夸赞