背景

1月22号晚上10点半,下班后愉快的坐在在回家的地铁上,内心想着周末的生活怎么安排。sql

忽然电话响了起来,一看是咱们的一个开发同窗,顿时紧张了起来,本周的版本已经发布过了,这时候打电话通常来讲是线上出问题了。数据库

果真,沟通的状况是线上的一个查询数据的接口被疯狂的失去理智般的调用,这个操做直接致使线上的MySql集群被拖慢了。性能优化

好吧,这问题算是严重了,下了地铁匆匆赶到家,开电脑,跟同事把Pinpoint上的慢查询日志捞出来。看到一个很奇怪的查询,以下多线程

1 POST domain/v1.0/module/method?order=condition&orderType=desc&offset=1800000&limit=500

domain、module 和 method 都是化名,表明接口的域、模块和实例方法名,后面的offset和limit表明分页操做的偏移量和每页的数量,也就是说该同窗是在 翻第(1800000/500+1=3601)页。初步捞了一下日志,发现 有8000屡次这样调用。dom

这太神奇了,并且咱们页面上的分页单页数量也不是500,而是 25条每页,这个绝对不是人为的在功能页面上进行一页一页的翻页操做,而是数据被刷了(说明下,咱们生产环境数据有1亿+)。 详细对比日志发现,不少分页的时间是重叠的,对方应该是多线程调用。函数

经过对鉴权的Token的分析,基本定位了请求是来自一个叫作ApiAutotest的客户端程序在作这个操做,也定位了生成鉴权Token的帐号来自一个QA的同窗。立马打电话给同窗,进行了沟通和处理。工具

分析

其实对于咱们的MySQL查询语句来讲,总体效率仍是能够的,该有的联表查询优化都有,该简略的查询内容也有,关键条件字段和排序字段该有的索引也都在,问题在于他一页一页的分页去查询,查到越后面的页数,扫描到的数据越多,也就越慢。性能

咱们在查看前几页的时候,发现速度很是快,好比  limit 200,25,瞬间就出来了。可是越日后,速度就越慢,特别是百万条以后,卡到不行,那这个是什么原理呢。先看一下咱们翻页翻到后面时,查询的sql是怎样的:测试

1 select * from t_name where c_name1='xxx' order by c_name2 limit 2000000,25;

这种查询的慢,实际上是由于limit后面的偏移量太大致使的。好比像上面的  limit 2000000,25 ,这个等同于数据库要扫描出 2000025条数据,而后再丢弃前面的 20000000条数据,返回剩下25条数据给用户,这种取法明显不合理。优化

你们翻看《高性能MySQL》第六章:查询性能优化,对这个问题有过说明:

分页操做一般会使用limit加上偏移量的办法实现,同时再加上合适的order by子句。但这会出现一个常见问题:当偏移量很是大的时候,它会致使MySQL扫描大量不须要的行而后再抛弃掉。

数据模拟

那好,了解了问题的原理,那就要试着解决它了。涉及数据敏感性,咱们这边模拟一下这种状况,构造一些数据来作测试。

一、建立两个表:员工表和部门表

1 /*部门表,存在则进行删除*/

2 drop table if EXISTSdep;3 create tabledep(4 id int unsigned primary keyauto_increment,5 depno mediumint unsigned not null default 0,6 depname varchar(20) not null default"",7 memo varchar(200) not null default""8 );9

10 /*员工表,存在则进行删除*/

11 drop table if EXISTSemp;12 create tableemp(13 id int unsigned primary keyauto_increment,14 empno mediumint unsigned not null default 0,15 empname varchar(20) not null default"",16 job varchar(9) not null default"",17 mgr mediumint unsigned not null default 0,18 hiredate datetime not null,19 sal decimal(7,2) not null,20 comn decimal(7,2) not null,21 depno mediumint unsigned not null default 0

22 );

二、建立两个函数:生成随机字符串和随机编号

1 /*产生随机字符串的函数*/

2 DELIMITER $3 drop FUNCTION if EXISTSrand_string;4 CREATE FUNCTION rand_string(n INT) RETURNS VARCHAR(255)5 BEGIN

6 DECLARE chars_str VARCHAR(100) DEFAULT 'abcdefghijklmlopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ';7 DECLARE return_str VARCHAR(255) DEFAULT '';8 DECLARE i INT DEFAULT 0;9 WHILE i

17

18 /*产生随机部门编号的函数*/

19 DELIMITER $20 drop FUNCTION if EXISTSrand_num;21 CREATE FUNCTION rand_num() RETURNS INT(5)22 BEGIN

23 DECLARE i INT DEFAULT 0;24 SET i = FLOOR(100+RAND()*10);25 RETURNi;26 END$27 DELIMITER;

三、编写存储过程,模拟500W的员工数据

1 /*创建存储过程:往emp表中插入数据*/

2 DELIMITER $3 drop PROCEDURE if EXISTSinsert_emp;4 CREATE PROCEDURE insert_emp(IN START INT(10),IN max_num INT(10))5 BEGIN

6 DECLARE i INT DEFAULT 0;7 /*set autocommit =0 把autocommit设置成0,把默认提交关闭*/

8 SET autocommit = 0;9 REPEAT10 SET i = i + 1;11 INSERT INTO emp(empno,empname,job,mgr,hiredate,sal,comn,depno) VALUES ((START+i),rand_string(6),'SALEMAN',0001,now(),2000,400,rand_num());12 UNTIL i =max_num13 ENDREPEAT;14 COMMIT;15 END$16 DELIMITER;17 /*插入500W条数据*/

18 call insert_emp(0,5000000);

四、编写存储过程,模拟120的部门数据

1 /*创建存储过程:往dep表中插入数据*/

2 DELIMITER $3 drop PROCEDURE if EXISTSinsert_dept;4 CREATE PROCEDURE insert_dept(IN START INT(10),IN max_num INT(10))5 BEGIN

6 DECLARE i INT DEFAULT 0;7 SET autocommit = 0;8 REPEAT9 SET i = i+1;10 INSERT INTO dep( depno,depname,memo) VALUES((START+i),rand_string(10),rand_string(8));11 UNTIL i =max_num12 ENDREPEAT;13 COMMIT;14 END$15 DELIMITER;16 /*插入120条数据*/

17 call insert_dept(1,120);

五、创建关键字段的索引,这边是跑完数据以后再建索引,会致使建索引耗时长,可是跑数据就会快一些。

1 /*创建关键字段的索引:排序、条件*/

2 CREATE INDEX idx_emp_id ONemp(id);3 CREATE INDEX idx_emp_depno ONemp(depno);4 CREATE INDEX idx_dep_depno ON dep(depno);

测试

测试数据

1 /*偏移量为100,取25*/

2 SELECTa.empno,a.empname,a.job,a.sal,b.depno,b.depname3 from emp a left join dep b on a.depno = b.depno order by a.id desc limit 100,25;4 /*偏移量为4800000,取25*/

5 SELECTa.empno,a.empname,a.job,a.sal,b.depno,b.depname6 from emp a left join dep b on a.depno = b.depno order by a.id desc limit 4800000,25;

执行结果

1 [SQL]

2 SELECTa.empno,a.empname,a.job,a.sal,b.depno,b.depname3 from emp a left join dep b on a.depno = b.depno order by a.id desc limit 100,25;4 受影响的行: 0

5 时间: 0.001s6 [SQL]

7 SELECTa.empno,a.empname,a.job,a.sal,b.depno,b.depname8 from emp a left join dep b on a.depno = b.depno order by a.id desc limit 4800000,25;9 受影响的行: 0

10 时间: 12.275s

由于扫描的数据多,因此这个明显不是一个量级上的耗时。

解决方案

一、使用索引覆盖+子查询优化

由于咱们有主键id,而且在上面建了索引,因此能够先在索引树中找到开始位置的 id值,再根据找到的id值查询行数据。

1 /*子查询获取偏移100条的位置的id,在这个位置上日后取25*/

2 SELECTa.empno,a.empname,a.job,a.sal,b.depno,b.depname3 from emp a left join dep b on a.depno =b.depno4 where a.id >= (select id from emp order by id limit 100,1)5 order by a.id limit 25;6

7 /*子查询获取偏移4800000条的位置的id,在这个位置上日后取25*/

8 SELECTa.empno,a.empname,a.job,a.sal,b.depno,b.depname9 from emp a left join dep b on a.depno =b.depno10 where a.id >= (select id from emp order by id limit 4800000,1)11 order by a.id limit 25;

执行结果

执行效率相比以前有大幅的提高:

1 [SQL]

2 SELECTa.empno,a.empname,a.job,a.sal,b.depno,b.depname3 from emp a left join dep b on a.depno =b.depno4 where a.id >= (select id from emp order by id limit 100,1)5 order by a.id limit 25;6 受影响的行: 0

7 时间: 0.106s8

9 [SQL]

10 SELECTa.empno,a.empname,a.job,a.sal,b.depno,b.depname11 from emp a left join dep b on a.depno =b.depno12 where a.id >= (select id from emp order by id limit 4800000,1)13 order by a.id limit 25;14 受影响的行: 0

15 时间: 1.541s

二、起始位置重定义

记住上次查找结果的主键位置,避免使用偏移量 offset

1 /*记住了上次的分页的最后一条数据的id是100,这边就直接跳过100,从101开始扫描表*/

2 SELECTa.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname3 from emp a left join dep b on a.depno =b.depno4 where a.id > 100 order by a.id limit 25;5

6 /*记住了上次的分页的最后一条数据的id是4800000,这边就直接跳过4800000,从4800001开始扫描表*/

7 SELECTa.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname8 from emp a left join dep b on a.depno =b.depno9 wherea.id > 4800000

10 order by a.id limit 25;

执行结果

1 [SQL]

2 SELECTa.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname3 from emp a left join dep b on a.depno =b.depno4 where a.id > 100 order by a.id limit 25;5 受影响的行: 0

6 时间: 0.001s7

8 [SQL]

9 SELECTa.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname10 from emp a left join dep b on a.depno =b.depno11 where a.id > 4800000

12 order by a.id limit 25;13 受影响的行: 0

14 时间: 0.000s

这个效率是最好的,不管怎么分页,耗时基本都是一致的,由于他执行完条件以后,都只扫描了25条数据。

可是有个问题,只适合一页一页的分页,这样才能记住前一个分页的最后Id。若是用户跳着分页就有问题了,好比刚刚刷完第25页,立刻跳到35页,数据就会不对。

这种的适合场景是相似百度搜索或者腾讯新闻那种滚轮往下拉,不断拉取不断加载的状况。这种延迟加载会保证数据不会跳跃着获取。

三、降级策略

看了网上一个阿里的dba同窗分享的方案:配置limit的偏移量和获取数一个最大值,超过这个最大值,就返回空数据。

由于他以为超过这个值你已经不是在分页了,而是在刷数据了,若是确认要找数据,应该输入合适条件来缩小范围,而不是一页一页分页。

这个跟我同事的想法大体同样:request的时候 若是offset大于某个数值就先返回一个4xx的错误。

小结:

当晚咱们应用上述第三个方案,对offset作一下限流,超过某个值,就返回空值。次日使用第一种和第二种配合使用的方案对程序和数据库脚本进一步作了优化。

合理来讲作任何功能都应该考虑极端状况,设计容量都应该涵盖极端边界测试。

另外,该有的限流、降级也应该考虑进去。好比工具多线程调用,在短期频率内8000次调用,可使用计数服务判断并反馈用户调用过于频繁,直接给予断掉。

哎,大意了啊,搞了半夜,QA同窗不讲武德。不过这是很美好的经历了。

mysql left 数学原理,MySQL全面瓦解21(番外):一次深夜优化亿级数据分页的奇妙经历...相关推荐

  1. 一次深夜优化,MySQL亿级数据分页的奇妙经历

    下班后,愉快的坐在在回家的地铁上,心里想着周末的生活怎么安排. 突然电话响了起来,一看是我们的一个开发同学,顿时紧张了起来,本周的版本已经发布过了,这时候打电话一般来说是线上出问题了. 果然,沟通的情 ...

  2. 一次深夜优化MySQL亿级数据分页的奇妙经历

    作者:翁智华 cnblogs.com/wzh2010/p/14316920.html 背景 1月22号晚上10点半,下班后愉快的坐在在回家的地铁上,心里想着周末的生活怎么安排. 突然电话响了起来,一看 ...

  3. MySQL亿级数据分页的奇妙经历

    作者:翁智华 cnblogs.com/wzh2010/p/14316920.html 背景 4月28号晚上10点半,下班后愉快的坐在在回家的地铁上,心里想着周末的生活怎么安排. 突然电话响了起来,一看 ...

  4. mysql+join的原理,Mysql连接join查询原理知识点

    Mysql连接join查询原理知识点 Mysql连接(join)查询 1.基本概念 将两个表的每一行,以"两两横向对接"的方式,所得到的所有行的结果. 假设: 表A有n1行,m1列 ...

  5. mysql 分组查询原理,MySQL分組查詢Group By實現原理詳解

    由於GROUP BY 實際上也同樣會進行排序操作,而且與ORDER BY 相比,GROUP BY 主要只是多了排序之后的分組操作.當然,如果在分組的時候還使用了其他的一些聚合函數,那么還需要一些聚合函 ...

  6. 【JVM技术专题】深入分析CG管理和原理查缺补漏「番外篇」

    前提概要 本文主要针对 Hotspot VM 中"CMS + ParNew" 组合的一些使用场景进行总结. 自 Sun 发布 Java 语言以来,开始使用GC技术来进行内存自动管理 ...

  7. 2.6.2.MySQL主从复制的原理

    MySQL主从复制的原理 MySQL复制技术介绍 主从复制是MySQL数据库的一种容灾备份方案:是mysql自带的功能,无需借助第三方工具,MySQL的主从复制并不是数据库磁盘上的文件直接拷贝,而是通 ...

  8. Mysql存储引擎原理

    Mysql的数据是如何组织的呢? 当然是page,也就是说mysql以页为单位进行内外存交换. 一. MySQL记录存储(页为单位) 页头 记录页面的控制信息,共占56字节,包括页的左右兄弟页面指针. ...

  9. mysql 双机热备 原理,MySQL双机热备份的配置及原理

    A.MySQL双机热备份概述 双机热备就是使用MySQL提供的一种主从备份机制实现.所谓双机热备其实是一个复制的过程,复制过程中一个服务器充当主服务器,一个或多个服务器充当从服务.这个复制的过程实质上 ...

最新文章

  1. 独家 | 规范性分析的实用介绍(附R语言案例研究演示代码)
  2. 学好SQL--MySQL简单使用(3)
  3. Excel中文字换行
  4. linux获取指定字符,shell 获取用户输入指定范围的单个字符的两种方法
  5. java中ArrayList和LinkedList的区别
  6. 数据结构 c++用栈实现四则运算_数据结构之线性结构——栈的四则运算实现
  7. Windows7系统技巧:常用的10个快捷键
  8. 第一百二十二期:大数据分析:红包先抢好,还是后抢好
  9. linux开源视频播放器_什么定义了Linux的顶级开源音乐播放器?
  10. IModelBinder
  11. Linux自动解压部署WEB项目脚本
  12. html5盒子层级设置,解决CSS中子元素z-index与父元素兄弟节点的层级问题
  13. 力扣-1. 两数之和
  14. Android 《第1行代码》-所有知识点架构
  15. ubuntu16.04下怎么安装flash player
  16. Android 热修复原理
  17. Word:快速插入水平分隔线
  18. [经典论文分享] Decision Transformer: Reinforcement Learning via Sequence Modeling
  19. Java数据结构之基于ArrayList编写大众麻将和扑克牌洗牌小练习
  20. microsoft edge 打开垃圾网页

热门文章

  1. MySQL文件后_MySQL误删除文件后,如何恢复
  2. mysql杨辉三角_两个经典的小例子:杨辉三角和水仙花
  3. 恒生估值系统_恒生指数和恒生国企指数投资价值分析
  4. java 根据类名示例化类_Java即时类| getEpochSecond()方法与示例
  5. js math.hypot_带有Python示例的math.hypot()方法
  6. 漫画:什么是布隆算法?
  7. C#单例模式的简单使用
  8. C#从构造函数中调用其他构造函数
  9. php 删除上传文件,php实现文件上传、下载和删除的方法
  10. imx6 android快速启动,android启动不起来(已解决)