sql优化之大数据量分页查询(mysql)

Easter79
• 阅读 609

当需要从数据库查询的表有上万条记录的时候,一次性查询所有结果会变得很慢,特别是随着数据量的增加特别明显,这时就需要使用分页查询。对于数据库分页查询,也有很多种方法和优化的点。

谈优化前的准备工作

为了对下面列举的一些优化进行测试,需要使用已有的一张表作为实际例子。

表名:order_history。

描述:某个业务的订单历史表。

主要字段:unsigned int id,tinyint(4) int type。

字段情况:该表一共37个字段,不包含text等大型数据,最大为varchar(500),id字段为索引,且为递增。

数据量:5百万+。

MySQL版本:5.7.16。

线下找一张百万级的测试表可不容易,如果需要自己测试的话,可以写shell脚本什么的插入数据进行测试。

一次查询出所有记录

不使用分页查询的情况下,一次查询出表中的所有记录,也就是全表扫描:

select count(*) from orders_history; -- 5094032

执行三次查询的时间分别是8023ms、8122ms和8329ms。

实际的项目当然是不可能进行全表扫描的一次性查询出所有记录的做法,这样会因为数据的响应、传输和装载过慢而影响页面渲染的性能,严重影响用户体验。

一般的分页查询

一般的分页查询使用简单的limit子句就可以实现。limit子句的声明如下:

select * from table limit [offset,] rows | rows offset offset

limit子句可以被用于指定select语句返回的记录数,以下是使用limit子句的注意事项:

1.第一个参数指定第一个返回记录行的偏移量,注意从0开始。

2.第二个参数指定返回记录行的最大数目。

3.如果只给定一个参数,这个参数表示返回的最大记录行数目。

4.如果第二个参数值为-1,那么就表示检索从某一个偏移量到记录集的结束所有的记录行。

5.初始记录行的偏移量是0,而不是1。

select * from orders_history where type = 8 limit 1000,10;

上面这条语句会从orders_history表中查询offset:1000开始之后的10条记录,也就是第1001条记录到第1010条记录的数据(1001<=记录行数<=1010)。

执行三次查询的时间分别是3022ms、3032ms和3019ms。

数据表中的记录默认使用主键(一般是id)排序,因此上面的查询相当于:

select * from orders_history where type = 8 order by id limit 1000,10;

针对这种查询方式,通过改变limit的第二个参数来测试查询记录量对查询时间的影响:

select * from orders_history where type = 8 limit 10000,1;
select * from orders_history where type = 8 limit 10000,10;
select * from orders_history where type = 8 limit 10000,100;
select * from orders_history where type = 8 limit 10000,1000;
select * from orders_history where type = 8 limit 10000,10000;

执行三处查询的时间分别如下:

查询1条记录:3072ms 3092ms 3002ms。

查询10条记录:3081ms 3077ms 3032ms。

查询100条记录:3118ms 3200ms 3128ms。

查询1000条记录:3412ms 3468ms 3394ms。

查询10000条记录:3749ms 3802ms 3696ms。

从查询结果(查询时间)上来看,基本上可以得出得出一个结论就是,在查询记录量小于100的时候,查询时间基本没有差距,但是随着查询记录量越来越大,所花费的时间就会越来越多(不明显)。

针对这种查询方式,通过改变limit的第一个参数来测试查询偏移量对查询时间的影响:

select * from orders_history where type = 8 limit 100,100;
select * from orders_history where type = 8 limit 1000,100;
select * from orders_history where type = 8 limit 10000,100;
select * from orders_history where type = 8 limit 100000,100;
select * from orders_history where type = 8 limit 1000000,100;

执行三次查询的时间分别如下:

查询100偏移:25ms 24ms 24ms

查询1000偏移:78ms 76ms 77ms

查询10000偏移:3092ms 3212ms 3128ms

查询100000偏移:3878ms 3812ms 3798ms

查询1000000偏移:14608ms 14062ms 14700ms

从查询结果(查询时间)来看,随着查询偏移量的增大,尤其查询偏移量大于10万之后,查询的时间明显增加。

因为这种分页查询方式会从数据库的第一条记录开始扫描,因此记录越往后,查询的速度就会越慢,而且查询的数据越多,也会拖慢整体的总查询速度。

使用子查询优化大数据量分页查询

这种方式的做法是先定位偏移位置的id,然后再往后查询,适用于id递增的情况。

select * from orders_history where type = 8 limit 100000,1;

select id from orders_history where type = 8 limit 100000,1;

select * from orders_history where type = 8 and id >= (
    select id from orders_history where type = 8 limit 100000,1
) limit 100;

select * from orders_history where type = 8 limit 100000,100;

上面4条语句的查询时间如下:

第1条语句:3674ms。

第2条语句:1315ms。

第3条语句:1327ms。

第4条语句:3710ms。

针对上面的查询需要注意:

1.比较第1条语句和第2条语句:使用select id代替select *速度增加了3倍。

2.比较第2条语句和第3条语句:速度相差几十毫秒。

3.比较第3条语句和第4条语句:得益于select id速度增加,第3条语句查询速度增加了3倍。

4.这种方式相较于原始一般的查询方法,将会增快数倍。

使用id限定优化大数据量分页查询

使用这种方式需要先假设数据表的id是连续递增的,我们根据查询的页数和查询的记录数可以算出查询的id的范围,可以使用 id between and 来查询:

select * 
from orders_history 
where type = 2
    and (id between 1000000 and 1000100)
limit 100;

执行三次查询的时间分别是15ms、12ms和10ms。

这种查询方式能够极大地优化查询速度,基本能够在几十毫秒之内完成。限制是只能使用于明确知道id的情况,不过一般建立表的时候,都会添加基本的id字段,这为分页查询带来很多便利。

还可以有另外一种写法:

select * from orders_history where id >= 1000001 limit 100;

当然了,也可以使用in的方式来进行查询,这种方式经常用在多表关联的情况下,使用其他表查询的id集合来进行查询:

select * from orders_history where id in (
    select order_id from trade where good_name = 'apple'
) limit 100;

但是使用这种in查询方式的时候要注意的是,某些MySQL版本并不支持在in子句中使用limit子句。

使用临时表优化大数据量分页查询

对于使用id限定优化中的问题,需要id是连续递增的,但是在一些场景下,比如使用历史表的时候,或者出现过数据缺失问题时,可以考虑使用临时存储的表来记录分页的id,使用分页的id来进行in查询。

这样能够极大的提高传统的分页查询速度,尤其是数据量上千万的时候。

关于数据表id的扩展说明

一般情况下,在数据库中建立表的时候,会强制为每一张表添加id递增字段,这样方便查询。

而如果像是订单库等数据量非常庞大,一般会进行分库分表。这个时候就不建议使用数据表的id作为唯一标识,而应该使用分布式的高并发唯一id生成器来生成,并在数据表中使用另外的字段来存储这个唯一标识。

查询的方法是先使用范围查询定位id(或者索引),然后再使用索引进行定位数据,就能够提高好几倍查询速度。即先select id,然后再select *。

"从前车马很慢,书信很远,一生只够爱一人。"

点赞
收藏
评论区
推荐文章
blmius blmius
2年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
Jacquelyn38 Jacquelyn38
2年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
Easter79 Easter79
2年前
sql注入
反引号是个比较特别的字符,下面记录下怎么利用0x00SQL注入反引号可利用在分隔符及注释作用,不过使用范围只于表名、数据库名、字段名、起别名这些场景,下面具体说下1)表名payload:select\from\users\whereuser\_id1limit0,1;!(https://o
Stella981 Stella981
2年前
Python3:sqlalchemy对mysql数据库操作,非sql语句
Python3:sqlalchemy对mysql数据库操作,非sql语句python3authorlizmdatetime2018020110:00:00coding:utf8'''
Easter79 Easter79
2年前
Twitter的分布式自增ID算法snowflake (Java版)
概述分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移
Wesley13 Wesley13
2年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Wesley13 Wesley13
2年前
mysql5.6 分页查询优化
mysql5.6分页查询优化场景:表结构:主键(非自增)contentCode(varchar),过滤条件列为updateTime(timeStamp),已经为timestamp建立索引。搜索sql为:SELECTFROMmy_hello_tableWHEREupdat
Wesley13 Wesley13
2年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
为什么mysql不推荐使用雪花ID作为主键
作者:毛辰飞背景在mysql中设计表的时候,mysql官方推荐不要使用uuid或者不连续不重复的雪花id(long形且唯一),而是推荐连续自增的主键id,官方的推荐是auto_increment,那么为什么不建议采用uuid,使用uuid究
Python进阶者 Python进阶者
3个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这
Easter79
Easter79
Lv1
今生可爱与温柔,每一样都不能少。
文章
2.8k
粉丝
5
获赞
1.2k