SQL数据库的Limit⽤法简介SELECT * FROM table  LIMIT [offset,] rows | rows OFFSET offset
mysql> SELECT * FROM table LIMIT 5,10;  // 检索记录⾏ 6-15
//为了检索从某⼀个偏移量到记录集的结束所有的记录⾏,可以指定第⼆个参数为 -1:
mysql> SELECT * FROM table LIMIT 95,-1; // 检索记录⾏ 96-last.
//如果只给定⼀个参数,它表⽰返回最⼤的记录⾏数⽬:
mysql> SELECT * FROM table LIMIT 5;    //检索前 5 个记录⾏
//换句话说,LIMIT n 等价于 LIMIT 0,n。
select * from table LIMIT 5,10; #返回第6-15⾏数据
select * from table LIMIT 5; #返回前5⾏
select * from table LIMIT 0,5; #返回前5⾏
1、offset⽐较⼩的时候。
select * from yanxue8_visit limit 10,10
多次运⾏,时间保持在0.0004-0.0005之间
Select * From yanxue8_visit Where vid >=(
Select vid From yanxue8_visit Order By vid limit 10,1
) limit 10
多次运⾏,时间保持在0.0005-0.0006之间,主要是0.0006
结论:偏移offset较⼩的时候,直接使⽤limit较优。这个显然是⼦查询的原因。
2、offset⼤的时候。
select * from yanxue8_visit limit 10000,10
多次运⾏,时间保持在0.0187左右
Select * From yanxue8_visit Where vid >=(
Select vid From yanxue8_visit Order By vid limit 10000,1
) limit 10
多次运⾏,时间保持在0.0061左右,只有前者的1/3。可以预计offset越⼤,后者越优。
性能优化:
基于MySQL5.0中limit的⾼性能,我对数据分页也重新有了新的认识.
1.
Select * From cyclopedia Where ID>=(
Select Max(ID) From (
Select ID From cyclopedia Order By ID limit 90001
) As tmp
) limit 100;
2.
Select * From cyclopedia Where ID>=(
Select Max(ID) From (
Select ID From cyclopedia Order By ID limit 90000,1
) As tmp
) limit 100;
同样是取90000条后100条记录,第1句快还是第2句快?
第1句是先取了前90001条记录,取其中最⼤⼀个ID值作为起始标识,然后利⽤它可以快速定位下100条记录
第2句择是仅仅取90000条记录后1条,然后取ID值作起始标识定位下100条记录
第1句执⾏结果.100 rows in set (0.23) sec
第2句执⾏结果.100 rows in set (0.19) sec
很明显第2句胜出.看来limit好像并不完全像我之前想象的那样做全表扫描返回limit offset+length条记录,这样看来limit⽐起MS-SQL的Top性能还是要提⾼不少的.
其实第2句完全可以简化成
Select * From cyclopedia Where ID>=(
Select ID From cyclopedia limit 90000,1
)limit 100;
直接利⽤第90000条记录的ID,不⽤经过Max运算,这样做理论上效率因该⾼⼀些,但在实际使⽤中⼏乎看不到效果,因为本⾝定位ID返回的就是1条记录,Max⼏乎不⽤运作就能得到结果,但这样写更清淅明朗,省去了画蛇那⼀⾜.
可是,既然MySQL有limit可以直接控制取出记录的位置,为什么不⼲脆⽤Select * From cyclopedia limit 90000,1呢?岂不更简洁?
这 样想就错了,试了就知道,结果是:1 row in set (8.88) sec,怎么样,够吓⼈的吧,让我想起了昨天在4.1中⽐这还有过之的"⾼分".Select * 最好不要随便⽤,要本着⽤什么,选什么的原则, Select的字段
越多,字段数据量越⼤,速度就越慢. 上⾯2种分页⽅式哪种都⽐单写这1句强多了,虽然看起来好像查询的次数更多⼀些,但实际上是以较⼩的代价换取了⾼效的性能,是⾮常值得的.
第1种⽅案同样可⽤于MS-SQL,⽽且可能是最好的.因为靠主键ID来定位起始段总是最快的.
Select Top 100 * From cyclopedia Where ID>=(
Select Top 90001 Max(ID) From (
Select ID From cyclopedia Order By ID
) As tmp
)
但不管是实现⽅式是存贮过程还是直接代码中,瓶颈始终在于MS-SQL的TOP总是要返回前N个记录,这种情况在数据量不⼤时感受不深,但如果成百上千万,效率肯定会低下的.相⽐之下MySQL的limit就有优势的多,执⾏:
Select ID From cyclopedia limit 90000
Select ID From cyclopedia limit 90000,1
的结果分别是:
90000 rows in set (0.36) sec
1 row in set (0.06) sec
⽽MS-SQL只能⽤Select Top 90000 ID From cyclopedia 执⾏时间是390ms,执⾏同样的操作时间也不及MySQL的360ms.
----------------------------------------------------------
LIMIT 思考
PERCONA PERFORMANCE CONFERENCE 2009上,来⾃雅虎的⼏位⼯程师带来了⼀篇”Efficient Pagination Using MySQL“的报告,有很多亮点,本⽂是在原⽂基础上的进⼀步延伸。
⾸先看⼀下分页的基本原理:
mysql> explain SELECT * FROM message ORDER BY id DESC LIMIT 10000, 20G
***************** 1. row **************
id: 1
select_type: SIMPLE
table: message
type: index
possible_keys: NULL
key: PRIMARY
key_len: 4
ref: NULL
rows: 10020
Extra:
sql中select是什么意思
1 row in set (0.00 sec)
limit 10000,20的意思扫描满⾜条件的10020⾏,扔掉前⾯的10000⾏,返回最后的20⾏,问题就在这⾥,如果是limit
100000,100,需要扫描100100⾏,在⼀个⾼并发的应⽤⾥,每次查询需要扫描超过10W⾏,性能肯定⼤打折扣。⽂中还提到limit n性
能是没问题的,因为只扫描n⾏。
⽂中提到⼀种”clue”的做法,给翻页提供⼀些”线索”,⽐如还是SELECT * FROM message ORDER BY id DESC,按id降序分页,每页20条,当前是第10页,当前页条⽬id最⼤的是9527,最⼩的是9500,如果我们只提供”上⼀页”、”下⼀页”这样 的跳转(不提供到第N页的跳转),那么在处理”上⼀页”的时候SQL语句可以是:
SELECT * FROM message WHERE id > 9527 ORDER BY id ASC LIMIT 20;
处理”下⼀页”的时候SQL语句可以是:
SELECT * FROM message WHERE id < 9500 ORDER BY id DESC LIMIT 20;
不管翻多少页,每次查询只扫描20⾏。
缺点是只能提供”上⼀页”、”下⼀页”的链接形式,但是我们的产品经理⾮常喜欢”<;上⼀页 1 2 3 4 5 6 7 8 9 下⼀页>”这样的链接⽅式,怎么办呢?
如果LIMIT m,n不可避免的话,要优化效率,只有尽可能的让m⼩⼀下,我们扩展前⾯的”clue”做法,还是SELECT * FROM message ORDER BY id DESC,按id降序分页,每页20条,当前是第10页,当前页条⽬id最⼤的是9527,最⼩的是9500,⽐如要跳到第8页,我看的SQL语句可以这 样写:
SELECT * FROM message WHERE id > 9527 ORDER BY id ASC LIMIT 20,20;
跳转到第13页:
SELECT * FROM message WHERE id < 9500 ORDER BY id DESC LIMIT 40,20;
原理还是⼀样,记录住当前页id的最⼤值和最⼩值,计算跳转页⾯和当前页相对偏移,由于页⾯相近,这个偏移量不会很⼤,这样的话m值相对较⼩,⼤⼤ 减少扫描的⾏数。其实传统的limit m,n,相对的偏移⼀直是第⼀页,这样的话越翻到后⾯,效率越差,⽽上⾯给出的⽅法就没有这样的问题。
注意SQL语句⾥⾯的ASC和DESC,如果是ASC取出来的结果,显⽰的时候记得倒置⼀下。
已在60W数据总量的表中测试,效果⾮常明显。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。