分页算法:
limit (页码-1)*长度,长度;
开启profile机制,获取查询时间
查看是否开启profiling功能
~~~
SHOW VARIABLES LIKE '%pro%';
或者
SELECT @@profiling;
~~~
开启
~~~
SET profiling=1;
~~~
# 问题
show profiles;
+----------+------------+---------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+---------------------------------------+
| 1 | 0.00018700 | select * from yaboo limit 1,10 |
| 2 | 0.00050400 | select * from yaboo limit 1000,10 |
| 3 | 0.00344900 | select * from yaboo limit 10000,10 |
| 4 | 0.04172900 | select * from yaboo limit 100000,10 |
| 5 | 0.29384700 | select * from yaboo limit 1000000,10 |
| 6 | 2.88306300 | select * from yaboo limit 10000000,10 |
+----------+------------+---------------------------------------+
因此:limit offset,N 当offset非常大时,效率极低
# 原因
mysql并不是跳过offset行,然后单取N行。而是取offset+N行,放弃前offset行,返回N行。效率较低,当offset越大是,效率越低
![](https://box.kancloud.cn/16d1606a47bf10189663e0fbe61081fa_908x131.jpg)
# 办法
优化办法:
(1)从业务上去解决:
办法:不允许翻过100页,
以百度为例,一般翻页到70页左右,谷歌40页左右。
(2)不用offset,用条件查询:
通过 `where+order+limit` 取代` order+limit` 偏移量,长度
~~~
select from user order by id limit 偏移量,长度
select from user where id >偏移量 order by id limit 长度
~~~
+----------+------------+------------------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+------------------------------------------------+
| 1 | 0.00018700 | select * from yaboo limit 1,10 |
| 2 | 0.00050400 | select * from yaboo limit 1000,10 |
| 3 | 0.00344900 | select * from yaboo limit 10000,10 |
| 4 | 0.04172900 | select * from yaboo limit 100000,10 |
| 5 | 0.29384700 | select * from yaboo limit 1000000,10 |
| 6 | 2.88306300 | select * from yaboo limit 10000000,10 |
| 8 | 0.00632600 | select * from yaboo where id>10000000 order by id limit 10 |
+----------+------------+------------------------------------------------+
where+order+limit获得相同结果的数据情况下,有索引可以使用,为什么呢?
因为如下图,where+order+limit值获得指定区域的有限的记录条数,比较少,因此可以使用索引
![](https://box.kancloud.cn/1d087533f6039e08ab2ec45679520962_918x150.jpg)
# 注意:
where+order+limit的问题
通过where+order+limit实现数据获取的注意:
① 排序的字段最好是**从1开始**,并且是**连续自增**的,这样方便where计算并获得指定的数据信息
② 一般使用次数较少
---
![](https://box.kancloud.cn/39d20eba594039b13c6071f4081946af_1360x246.jpg)
![](https://box.kancloud.cn/68da43f5a5bc2af86da2ca35b0ffea10_2428x293.jpg)
![](https://box.kancloud.cn/3366bd98972127d64bffef29b59b8e66_2332x318.jpg)
避免数据量多扫描过多
- SQL
- 名词
- mysql
- 初识mysql
- 备份和恢复
- 存储引擎
- 数据表损坏和修复
- mysql工具
- 数据库操作
- 增
- 删
- 改
- 查
- 数据类型
- 整数类型
- 小数类型
- 日期时间类型
- 字符和文本型
- enum类型
- set类型
- 时间类型
- null与not null和null与空值''的区别
- 数据表操作
- 创建
- 索引
- 约束
- 表选项列表
- 表的其他语句
- 视图
- sql增删改查
- sql增
- sql删
- sql改
- sql查
- sql语句练习
- 连接查询和更新
- 常用sql语句集锦
- 函数
- 字符函数
- 数值运算符
- 比较运算符与函数
- 日期时间函数
- 信息函数
- 聚合函数
- 加密函数
- null函数
- 用户权限管理
- 用户管理
- 权限管理
- pdo
- 与pdo相关的几个类
- 连接数据库
- 使用
- pdo的错误处理
- pdo结果集对象
- pdo结果集对象常用方法
- pdo预处理
- 常用属性
- mysql编程
- 事务
- 语句块
- mysql中的变量
- 存储函数
- 存储过程
- 触发器
- mysql优化
- 存储引擎
- 字段类型
- 三范式和逆范式
- 索引
- 查询缓存
- limit分页优化
- 分区
- 介绍
- 分区算法
- list分区
- range范围
- Hash哈希
- key键值
- 分区管理
- 特别注意
- 分表
- 数据碎片与维护
- innodb表压缩
- 慢查询
- explain执行计划
- count和max,groupby优化
- 子查询优化
- mysql锁机制
- 介绍
- 演示
- 总结
- 乐观锁和悲观锁
- 扛得住的mysql
- 实例和故事
- 系统参数优化
- mysql体系结构
- mysql基准测试
- 索引
- mysql的复制
- win配置MySQL主从
- mysql5.7新特性
- 常见问题
- general log
- 忘记密码
- uodo log与redo log
- 事务隔离级别
- mysql8密码登录
- explain
- 高效的Tree表
- on delete cascade 总结
- mongod
- 简介
- 集合文档操作语句
- 增删改查
- 索引
- 数据导入和导出
- 主从复制
- php7操作mongod
- 权限管理
- redis
- redis简介
- 3.2版本配置文件
- 3.0版本配置文件
- 2.8版本配置文件
- 配置文件总结
- 外网连接
- 持久化
- RDB备份方式保存数据
- AOF备份方式保存数据
- 总结
- win安装redis和sentinel部署
- 事务
- Sentinel模式配置
- 分布式锁
- 管道
- php中redis代码
- 发布订阅
- slowlog
- Redis4.0
- scan和keys
- elasticsearch
- 配置说明
- 启动
- kibana
- kibana下载
- kibana配置文件
- kibana常用功能
- 常用术语
- Beats
- Beats简介
- Filebeat
- Packetbeat
- Logstash
- 配置
- elasticsearch架构
- es1.7
- head和bigdesk插件
- 插件大全
- 倒排索引
- 单模式下API增删改查
- mget获取多个文档
- 批量操作bulk
- 版本控制
- Mapping映射
- 基本查询
- Filter过滤
- 组合查询
- es配置文件
- es集群优化和管理
- logstash
- kibana
- es5.2
- 安装
- 冲突处理
- 数据备份
- 缺陷不足
- 集群管理api
- 分布式事务
- CAP理论
- BASE模型
- 两阶段提交(2PC)
- TCC (Try-Confirm-Cancle)
- 异步确保型
- 最大努力通知型
- 总结