方法1: 直接使用數(shù)據(jù)庫(kù)提供的SQL語句
語句樣式:MySQL中,可用如下方法: SELECT * FROM 表名稱 LIMIT M,N
適應(yīng)場(chǎng)景:適用于數(shù)據(jù)量較少的情況(元組百/千級(jí))
原因/缺點(diǎn):全表掃描,速度會(huì)很慢 且 有的數(shù)據(jù)庫(kù)結(jié)果集返回不穩(wěn)定(如某次返回1,2,3,另外的一次返回2,1,3). Limit限制的是從結(jié)果集的M位置處取出N條輸出,其余拋棄.
方法2:建立主鍵或唯一索引, 利用索引(假設(shè)每頁10條)
語句樣式:MySQL中,可用如下方法: SELECT * FROM 表名稱 WHERE id_pk > (pageNum*10) LIMIT M
適應(yīng)場(chǎng)景:適用于數(shù)據(jù)量多的情況(元組數(shù)上萬)
原因:索引掃描,速度會(huì)很快. 有朋友提出: 因?yàn)閿?shù)據(jù)查詢出來并不是按照pk_id排序的萌朱,所以會(huì)有漏掉數(shù)據(jù)的情況,只能方法3
方法3: 基于索引再排序
語句樣式:MySQL中,可用如下方法: SELECT * FROM 表名稱 WHERE id_pk > (pageNum*10) ORDER BY id_pk ASC LIMIT M
適應(yīng)場(chǎng)景:適用于數(shù)據(jù)量多的情況(元組數(shù)上萬). 最好ORDER BY后的列對(duì)象是主鍵或唯一所以,使得ORDERBY操作能利用索引被消除但結(jié)果集是穩(wěn)定的(穩(wěn)定的含義,參見方法1)
原因:索引掃描,速度會(huì)很快. 但MySQL的排序操作,只有ASC沒有DESC(DESC是假的,未來會(huì)做真正的DESC,期待...).
方法4: 基于索引使用prepare
第一個(gè)問號(hào)表示pageNum策菜,第二個(gè)晶疼?表示每頁元組數(shù)
語句樣式:MySQL中,可用如下方法: PREPARE stmt_name FROM SELECT * FROM 表名稱 WHERE id_pk > (酒贬?* ?) ORDER BY id_pk ASC LIMIT M
適應(yīng)場(chǎng)景:大數(shù)據(jù)量
原因:索引掃描,速度會(huì)很快. prepare語句又比一般的查詢語句快一點(diǎn)冒晰。
方法5: 利用MySQL支持ORDER操作可以利用索引快速定位部分元組,避免全表掃描
比如: 讀第1000到1019行元組(pk是主鍵/唯一鍵).
SELECT?*?FROM?your_table?WHERE?pk>=1000?ORDER?BY?pk?ASC?LIMIT?0,20
方法6: 利用"子查詢/連接+索引"快速定位元組的位置,然后再讀取元組.
比如(id是主鍵/唯一鍵,藍(lán)色字體時(shí)變量)
利用子查詢示例:
SELECT?*?FROM?your_table?WHERE?id?<=
(SELECT?id?FROM?your_table?ORDER?BY?id?desc?LIMIT?($page-1)*$pagesizeORDER?BY?id?desc
LIMIT$pagesize
利用連接示例:
SELECT?*?FROM?your_table?AS?t1
JOIN?(SELECT?id?FROM?your_table?ORDER?BY?id?desc?LIMIT?($page-1)*$pagesizeAS?t2
WHERE?t1.id?<=?t2.id?ORDER?BY?t1.id?desc?LIMIT$pagesize;
mysql大數(shù)據(jù)量使用limit分頁同衣,隨著頁碼的增大,查詢效率越低下壶运。
測(cè)試實(shí)驗(yàn)
1. ?直接用limit start, count分頁語句耐齐, 也是我程序中用的方法:
select?*?from?productlimitstart,?count
當(dāng)起始頁較小時(shí),查詢沒有性能問題蒋情,我們分別看下從10埠况, 100, 1000棵癣, 10000開始分頁的執(zhí)行時(shí)間(每頁取20條)辕翰。
如下:
select?*?from?productlimit10,?20???0.016秒
select?*?from?productlimit100,?20???0.016秒
select?*?from?productlimit1000,?20???0.047秒
select?*?from?productlimit10000,?20???0.094秒
我們已經(jīng)看出隨著起始記錄的增加,時(shí)間也隨著增大狈谊, 這說明分頁語句limit跟起始頁碼是有很大關(guān)系的喜命,那么我們把起始記錄改為40w看下(也就是記錄的一般左右)
select?*?from?productlimit400000,?20???3.229秒
再看我們?nèi)∽詈笠豁撚涗浀臅r(shí)間
select?*?from?productlimit866613,?20???37.44秒
像這種分頁最大的頁碼頁顯然這種時(shí)間是無法忍受的。
從中我們也能總結(jié)出兩件事情:
limit語句的查詢時(shí)間與起始記錄的位置成正比
mysql的limit語句是很方便河劝,但是對(duì)記錄很多的表并不適合直接使用壁榕。
2. ?對(duì)limit分頁問題的性能優(yōu)化方法
利用表的覆蓋索引來加速分頁查詢
我們都知道,利用了索引查詢的語句中如果只包含了那個(gè)索引列(覆蓋索引)赎瞎,那么這種情況會(huì)查詢很快牌里。
因?yàn)槔盟饕檎矣袃?yōu)化算法,且數(shù)據(jù)就在查詢索引上面务甥,不用再去找相關(guān)的數(shù)據(jù)地址了牡辽,這樣節(jié)省了很多時(shí)間。另外Mysql中也有相關(guān)的索引緩存敞临,在并發(fā)高的時(shí)候利用緩存就效果更好了态辛。
在我們的例子中,我們知道id字段是主鍵挺尿,自然就包含了默認(rèn)的主鍵索引∽嗪冢現(xiàn)在讓我們看看利用覆蓋索引的查詢效果如何。
這次我們之間查詢最后一頁的數(shù)據(jù)(利用覆蓋索引票髓,只包含id列)攀涵,如下:
select?id?from?productlimit866613,?20?0.2秒
相對(duì)于查詢了所有列的37.44秒铣耘,提升了大概100多倍的速度
那么如果我們也要查詢所有列洽沟,有兩種方法,一種是id>=的形式蜗细,另一種就是利用join裆操,看下實(shí)際情況:
SELECT?*?FROM?product?WHERE?ID?>?=(select?id?from?productlimit866613,?1)limit20
查詢時(shí)間為0.2秒怒详!
另一種寫法
SELECT?*?FROM?product?a?JOIN?(select?id?from?productlimit866613,?20)?b?ON?a.ID?=?b.id
查詢時(shí)間也很短!
3. ?復(fù)合索引優(yōu)化方法
MySql 性能到底能有多高踪区?MySql 這個(gè)數(shù)據(jù)庫(kù)絕對(duì)是適合dba級(jí)的高手去玩的昆烁,一般做一點(diǎn)1萬篇新聞的小型系統(tǒng)怎么寫都可以,用xx框架可以實(shí)現(xiàn)快速開發(fā)缎岗【材幔可是數(shù)據(jù)量到了10萬,百萬至千萬传泊,他的性能還能那么高嗎鼠渺?一點(diǎn)小小的失誤,可能造成整個(gè)系統(tǒng)的改寫眷细,甚至更本系統(tǒng)無法正常運(yùn)行拦盹!好了,不那么多廢話了溪椎。
用事實(shí)說話普舆,看例子:
數(shù)據(jù)表 collect ( id, title ,info ,vtype) 就這4個(gè)字段,其中 title 用定長(zhǎng)校读,info 用text, id 是逐漸沼侣,vtype是tinyint,vtype是索引地熄。這是一個(gè)基本的新聞系統(tǒng)的簡(jiǎn)單模型』伲現(xiàn)在往里面填充數(shù)據(jù),填充10萬篇新聞端考。最后collect 為 10萬條記錄雅潭,數(shù)據(jù)庫(kù)表占用硬1.6G。
OK ,看下面這條sql語句:
select?id,title?from?collectlimit1000,10;
很快却特;基本上0.01秒就OK扶供,再看下面的
select?id,title?from?collectlimit90000,10;
從9萬條開始分頁,結(jié)果裂明?
8-9秒完成椿浓,my god 哪出問題了?其實(shí)要優(yōu)化這條數(shù)據(jù)闽晦,網(wǎng)上找得到答案扳碍。看下面一條語句:
select?id?from?collect?order?by?idlimit90000,10;
很快仙蛉,0.04秒就OK笋敞。為什么?因?yàn)橛昧薸d主鍵做索引當(dāng)然快荠瘪。網(wǎng)上的改法是:
select?id,title?from?collectwhereid>=(select?id?from?collect?order?by?idlimit90000,1)limit10;
這就是用了id做索引的結(jié)果夯巷∪停可是問題復(fù)雜那么一點(diǎn)點(diǎn),就完了趁餐∨缂妫看下面的語句
select id from collect where vtype=1 order by id limit 90000,10; 很慢,用了8-9秒后雷!
到了這里我相信很多人會(huì)和我一樣季惯,有崩潰感覺!vtype 做了索引了巴瓮弧星瘾?怎么會(huì)慢呢?vtype做了索引是不錯(cuò)惧辈,你直接
select?id?from?collectwherevtype=1limit1000,10;
是很快的琳状,基本上0.05秒,可是提高90倍盒齿,從9萬開始念逞,那就是0.05*90=4.5秒的速度了。和測(cè)試結(jié)果8-9秒到了一個(gè)數(shù)量級(jí)边翁。
從這里開始有人提出了分表的思路翎承,這個(gè)和dis #cuz 論壇是一樣的思路。思路如下:
建一個(gè)索引表:t (id,title,vtype) 并設(shè)置成定長(zhǎng)符匾,然后做分頁叨咖,分頁出結(jié)果再到 collect 里面去找info 。是否可行呢啊胶?實(shí)驗(yàn)下就知道了甸各。
10萬條記錄到 t(id,title,vtype) 里,數(shù)據(jù)表大小20M左右焰坪。用
select?id?from?twherevtype=1?order?by?idlimit90000,10;
很快了趣倾。基本上0.1-0.2秒可以跑完某饰。為什么會(huì)這樣呢儒恋?我猜想是因?yàn)閏ollect 數(shù)據(jù)太多,所以分頁要跑很長(zhǎng)的路黔漂。limit 完全和數(shù)據(jù)表的大小有關(guān)的诫尽。其實(shí)這樣做還是全表掃描,只是因?yàn)閿?shù)據(jù)量小炬守,只有10萬才快牧嫉。OK, 來個(gè)瘋狂的實(shí)驗(yàn)劳较,加到100萬條驹止,測(cè)試性能。加了10倍的數(shù)據(jù)观蜗,馬上t表就到了200多M臊恋,而且是定長(zhǎng)。還是剛才的查詢語句墓捻,時(shí)間是0.1-0.2秒完成抖仅!分表性能沒問題?
錯(cuò)砖第!因?yàn)槲覀兊膌imit還是9萬撤卢,所以快。給個(gè)大的梧兼,90萬開始
select?id?from?twherevtype=1?order?by?idlimit900000,10;
看看結(jié)果放吩,時(shí)間是1-2秒!why ?
分表了時(shí)間還是這么長(zhǎng)羽杰,非常之郁悶渡紫!有人說定長(zhǎng)會(huì)提高limit的性能,開始我也以為考赛,因?yàn)橐粭l記錄的長(zhǎng)度是固定的惕澎,mysql 應(yīng)該可以算出90萬的位置才對(duì)啊颜骤?可是我們高估了mysql 的智能唧喉,他不是商務(wù)數(shù)據(jù)庫(kù),事實(shí)證明定長(zhǎng)和非定長(zhǎng)對(duì)limit影響不大忍抽?怪不得有人說discuz到了100萬條記錄就會(huì)很慢八孝,我相信這是真的,這個(gè)和數(shù)據(jù)庫(kù)設(shè)計(jì)有關(guān)鸠项!
難道MySQL 無法突破100萬的限制嗎唆阿??锈锤?到了100萬的分頁就真的到了極限驯鳖?
答案是:NO 為什么突破不了100萬是因?yàn)椴粫?huì)設(shè)計(jì)mysql造成的。下面介紹非分表法久免,來個(gè)瘋狂的測(cè)試浅辙!一張表搞定100萬記錄,并且10G 數(shù)據(jù)庫(kù)阎姥,如何快速分頁记舆!
好了,我們的測(cè)試又回到 collect表呼巴,開始測(cè)試結(jié)論是:
30萬數(shù)據(jù)泽腮,用分表法可行御蒲,超過30萬他的速度會(huì)慢道你無法忍受!當(dāng)然如果用分表+我這種方法诊赊,那是絕對(duì)完美的厚满。但是用了我這種方法后,不用分表也可以完美解決碧磅!
答案就是:復(fù)合索引碘箍!有一次設(shè)計(jì)mysql索引的時(shí)候,無意中發(fā)現(xiàn)索引名字可以任取鲸郊,可以選擇幾個(gè)字段進(jìn)來丰榴,這有什么用呢?
開始的
select?id?from?collect?order?by?idlimit90000,10;
這么快就是因?yàn)樽吡怂饕汛椋墒侨绻恿藈here 就不走索引了四濒。抱著試試看的想法加了 search(vtype,id) 這樣的索引。
然后測(cè)試
select?id?from?collectwherevtype=1limit90000,10;
非持氨妫快峻黍!0.04秒完成!
再測(cè)試:
select?id?,title?from?collectwherevtype=1limit90000,10;
非常遺憾拨匆,8-9秒姆涩,沒走search索引!
再測(cè)試:search(id,vtype)惭每,還是select id 這個(gè)語句骨饿,也非常遺憾,0.5秒台腥。
綜上:如果對(duì)于有where 條件宏赘,又想走索引用limit的,必須設(shè)計(jì)一個(gè)索引黎侈,將where 放第一位察署,limit用到的主鍵放第2位,而且只能select 主鍵峻汉!
完美解決了分頁問題了贴汪。可以快速返回id就有希望優(yōu)化limit 休吠, 按這樣的邏輯扳埂,百萬級(jí)的limit 應(yīng)該在0.0x秒就可以分完×鼋福看來mysql 語句的優(yōu)化和索引時(shí)非常重要的阳懂!