統(tǒng)計(jì)學(xué)習(xí)方法筆記之決策樹

更多文章可以訪問我的博客Aengus | Blog

決策樹的概念比較簡(jiǎn)單,可以將決策樹看做一個(gè)if-then集合:如果“條件1”,那么...。決策樹學(xué)習(xí)的損失函數(shù)通常是正則化后極大似然函數(shù),學(xué)習(xí)的算法通常是一個(gè)遞歸的選擇最優(yōu)特征吓笙,并根據(jù)該特征對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行分割,使得對(duì)各個(gè)子數(shù)據(jù)集有一個(gè)最好的分類的過程巾腕∶婢Γ可以看出,決策樹算法一般包含特征選擇尊搬,決策樹的生成與決策樹的剪枝過程叁鉴。

特征選擇

信息增益

熵和條件熵

在了解信息增益之前需先給出熵和條件熵的定義。

熵代表隨機(jī)變量不確定性的度量佛寿,設(shè)在一個(gè)有限個(gè)值的離散隨機(jī)變量幌墓,其概率分布為
P(X=x_i) = p_i, i=1,2,\cdots,n
則隨便變量X的熵定義為
H(X) = - \sum^n_{i=1}p_i \log p_i
如果p_i=0,則定義0\log 0=0;對(duì)數(shù)一般取以2為底或者以e為底克锣,這時(shí)候熵的單位分別稱作比特(bit)和納特(nat)。由定義可知腔长,熵只依賴于X的分布袭祟,而和X的取值無關(guān),因此也可以將X的熵記作H(p)捞附,即:
H(p) = - \sum^n_{i=1}p_i \log p_i
熵越大巾乳,隨機(jī)變量的不確定性就越大,根據(jù)定義可以得到:
0 \leq H(p) \leq \log n
條件熵H(Y|X)表示在已知隨機(jī)變量X的條件下鸟召,隨機(jī)變量Y的不確定性胆绊。隨機(jī)變量X給定的條件下隨機(jī)變量Y的條件熵H(Y|X),定義為X給定條件下Y的條件概率分布的熵對(duì)X的數(shù)學(xué)期望:
H(Y|X) = \sum^n_{i=1}p_iH(Y|X=x_i)
其中欧募,p_i=P(X=x_i), i=1,2, \cdots, n压状。

當(dāng)熵和條件熵中的概率由數(shù)據(jù)估計(jì)(尤其是極大似然估計(jì))得到時(shí),所對(duì)應(yīng)的熵和條件熵分別稱為經(jīng)驗(yàn)熵和經(jīng)驗(yàn)條件熵跟继。

定義

信息增益表示得知特征X的信息而使得類Y的信息的不確定性減少的程度种冬。

特征A對(duì)訓(xùn)練集D的信息增益g(D,A),定義為集合D的經(jīng)驗(yàn)熵H(D)與特征A給定條件下D的經(jīng)驗(yàn)條件熵H(D|A)之差舔糖,即
g(D|A) = H(D)-H(D|A)
一般來說娱两,熵H(Y)與條件熵H(Y|X)之差稱作互信息。

根據(jù)信息增益選擇特征的方法是選擇信息增益最大的特征金吗。

信息增益算法

對(duì)于給定的訓(xùn)練集D和特征A十兢,計(jì)算特征A對(duì)于訓(xùn)練集D的信息增益g(D,A)一般有以下步驟:

(1)計(jì)算數(shù)據(jù)集D的經(jīng)驗(yàn)熵H(D)
H(D) = - \sum^K_{k=1} \frac{|C_k|}{|D|} \log_2 \frac{|C_k|}{|D|}
(2)計(jì)算特征A對(duì)數(shù)據(jù)集D的經(jīng)驗(yàn)條件熵H(D|A)
H(D|A)=\sum^n_{i=1}\frac{|D_i|}{|D|}H(D_i)=- \sum^n_{i=1}\frac{|D_i|}{|D|}\sum^K_{k=1}\frac{|D_{ik}|}{|D_i|} \log_2 \frac{|D_{ik}|}{|D_i|}
(3)計(jì)算信息增益
g(D,A)=H(D)-H(D|A)

信息增益比

以信息增益作為劃分訓(xùn)練數(shù)據(jù)集的特征,存在偏向于選擇取值較多的特征的問題摇庙。使用信息增益比可以校正這一問題旱物。

定義

對(duì)于給定的訓(xùn)練集D和特征A,特征A對(duì)于訓(xùn)練集D的信息增益比g_R(D,A)定義為其信息增益g(D,A)與訓(xùn)練數(shù)據(jù)集D關(guān)于特征A的值的熵H_A(D)之比跟匆,即:
g_R(D,A) = \frac{g(D,A)}{H_A(D)}
其中异袄,H_A(D)=- \sum^n_{i=1} \frac{|D_i|}{|D|} \log_2\frac{|D_i|}{|D|}n是特征A取值的個(gè)數(shù)玛臂。

決策樹的生成

ID3算法

ID3算法的核心是在決策樹各個(gè)結(jié)點(diǎn)上應(yīng)用信息增益選擇特征烤蜕,遞歸的構(gòu)建決策樹。ID3相當(dāng)于用極大似然法進(jìn)行概率模型的選擇迹冤。

假設(shè)輸入訓(xùn)練數(shù)據(jù)集D讽营,特征集A和閾值\varepsilon,按照以下步驟求得決策樹T

(1)如果D中所有實(shí)例屬于同一類C_k泡徙,則T為單結(jié)點(diǎn)樹橱鹏,并將類C_k作為該結(jié)點(diǎn)的類標(biāo)記,返回T

(2)若A=\varnothing莉兰,則T為單結(jié)點(diǎn)樹挑围,并將D中實(shí)例數(shù)最大的類C_k作為該結(jié)點(diǎn)的類標(biāo)記松申,返回T注益;

(3)否則,按照信息增益的算法計(jì)算A中各特征對(duì)D的信息增益班缰,選擇信息增益最大的特征A_g捶朵;

(4) 如果A_g的信息增益小于閾值\varepsilon蜘矢,則置T為單結(jié)點(diǎn)樹,并將D中實(shí)例數(shù)最大的類C_k作為該結(jié)點(diǎn)的類作為該結(jié)點(diǎn)的類標(biāo)記综看,返回T品腹;

(5)否則,對(duì)A_g的每一個(gè)可能值a_i红碑,依A_g=a_iD分割為若干非空子集D_i舞吭,將D_i中實(shí)例數(shù)最大的類作為標(biāo)記,構(gòu)建子結(jié)點(diǎn)句喷,由結(jié)點(diǎn)及其子結(jié)點(diǎn)構(gòu)成樹T镣典,返回T

(6)對(duì)第i個(gè)子結(jié)點(diǎn)唾琼,以D_i為訓(xùn)練集兄春,以A-\{A_g \}為特征集,遞歸地調(diào)用(1)~(5)步锡溯,得到子樹T_i并返回赶舆;

C4.5算法

C4.5算法和ID3算法類似,不過是用信息增益比替換掉了信息增益祭饭;

假設(shè)輸入訓(xùn)練數(shù)據(jù)集D芜茵,特征集A和閾值\varepsilon,按照以下步驟求得決策樹T

(1)如果D中所有實(shí)例屬于同一類C_k倡蝙,則T為單結(jié)點(diǎn)樹九串,并將類C_k作為該結(jié)點(diǎn)的類標(biāo)記,返回T寺鸥;

(2)若A=\varnothing猪钮,則T為單結(jié)點(diǎn)樹,并將D中實(shí)例數(shù)最大的類C_k作為該結(jié)點(diǎn)的類標(biāo)記胆建,返回T烤低;

(3)否則,按照信息增益比的算法計(jì)算A中各特征對(duì)D信息增益比笆载,選擇信息增益比最大的特征A_g扑馁;

(4) 如果A_g信息增益比小于閾值\varepsilon涯呻,則置T為單結(jié)點(diǎn)樹,并將D中實(shí)例數(shù)最大的類C_k作為該結(jié)點(diǎn)的類作為該結(jié)點(diǎn)的類標(biāo)記腻要,返回T复罐;

(5)否則,對(duì)A_g的每一個(gè)可能值a_i雄家,依A_g=a_iD分割為若干非空子集D_i市栗,將D_i中實(shí)例數(shù)最大的類作為標(biāo)記,構(gòu)建子結(jié)點(diǎn)咳短,由結(jié)點(diǎn)及其子結(jié)點(diǎn)構(gòu)成樹T,返回T蛛淋;

(6)對(duì)第i個(gè)子結(jié)點(diǎn)咙好,以D_i為訓(xùn)練集,以A-\{A_g \}為特征集褐荷,遞歸地調(diào)用(1)~(5)步勾效,得到子樹T_i并返回;

可以看到兩個(gè)算法除了加粗的部分叛甫,其他部分都一樣层宫。

決策樹的剪枝

決策樹生成算法遞歸的產(chǎn)生決策樹直到不能繼續(xù)下去為止,這樣的樹往往對(duì)訓(xùn)練數(shù)據(jù)分類比較準(zhǔn)確其监,但是對(duì)未知的測(cè)試數(shù)據(jù)往往沒那么精準(zhǔn)萌腿,即出現(xiàn)過擬合現(xiàn)象。對(duì)于這種情況可以將決策樹進(jìn)行簡(jiǎn)化抖苦,也被稱為決策樹的剪枝毁菱。

決策樹的剪枝往往通過極小化決策樹整體的損失函數(shù)或代價(jià)函數(shù)來實(shí)現(xiàn)。設(shè)樹T的葉結(jié)點(diǎn)個(gè)數(shù)為|T|锌历,t是樹T的葉結(jié)點(diǎn)贮庞,該葉結(jié)點(diǎn)有N_t個(gè)樣本點(diǎn),其中k類的樣本點(diǎn)有N_{tk}個(gè)究西,k=1, 2, \cdots, K窗慎,H_t(T)為葉結(jié)點(diǎn)t上的經(jīng)驗(yàn)熵,\alpha \geq0為參數(shù)卤材,則決策樹學(xué)習(xí)的損失函數(shù)可以定義為:
C_\alpha (T) = \sum^{|T|}_{t=1}N_t H_t(T)+\alpha |T|
其中經(jīng)驗(yàn)熵為:
H_t(T) = -\sum_k \frac{N_{tk}}{N_t} \log \frac{N_{tk}}{N_t}
在損失函數(shù)中遮斥,將損失函數(shù)右端的第一項(xiàng)記作
C(T) = \sum^{|T|}_{t=1}N_t H_t(T) = -\sum^{|T|}_{t=1} \sum^K_{k=1}N_{tk} \log \frac{N_{tk}}{N_t}
這時(shí)有
C_\alpha(T) = C(T)+\alpha|T|
剪枝就意味著當(dāng)\alpha確定時(shí),選擇損失函數(shù)最小的模型商膊,即損失函數(shù)最小的子樹(\alpha較大時(shí)促使選擇比較簡(jiǎn)單的模型伏伐,較小時(shí)促進(jìn)選擇復(fù)雜的模型)。

剪枝算法

輸入生成的決策樹T以及參數(shù)\alpha晕拆,輸出剪枝后的子樹T_\alpha

(1)計(jì)算每個(gè)結(jié)點(diǎn)的經(jīng)驗(yàn)熵藐翎;

(2)遞歸地從樹的葉結(jié)點(diǎn)向上回縮材蹬,設(shè)一組葉結(jié)點(diǎn)回縮到其父結(jié)點(diǎn)之前與之后的整體樹分別為T_BT_A,其對(duì)應(yīng)的損失函數(shù)值分別是C_\alpha(T_B)C_\alpha(T_A)吝镣,如果
C_\alpha(T_A) \leq C_\alpha(T_B)
則進(jìn)行剪枝堤器,即將父結(jié)點(diǎn)變?yōu)樾碌娜~結(jié)點(diǎn);

(3)重復(fù)步驟(2)末贾,直至不能繼續(xù)為止闸溃,得到損失函數(shù)最小的子樹T_\alpha

CART算法

分類與回歸樹(classification and regression tree, CART)模型是應(yīng)用廣泛的決策樹學(xué)習(xí)方法拱撵,CART同樣由特征選擇辉川、樹的生成以及剪枝組成,既可以用于分類也可以用于回歸拴测。

CART是在給定輸入隨機(jī)變量X的條件下輸出隨機(jī)變量Y的條件概率分布的學(xué)習(xí)方法乓旗。CART假設(shè)決策樹是二叉樹,內(nèi)部結(jié)點(diǎn)特征的取值是“是”或“否”集索,左分支是取值為“是”的分支屿愚,右分支是取值為“否”的分支。CART算法由以下兩步組成:

(1)決策樹生成:基于訓(xùn)練數(shù)據(jù)集生成決策樹务荆,生成的決策樹要盡量大妆距;

(2)決策樹剪枝:用驗(yàn)證數(shù)據(jù)集對(duì)已生成的樹進(jìn)行剪枝并選擇最優(yōu)子樹,這時(shí)用損失函數(shù)最小作為剪枝的標(biāo)準(zhǔn)函匕;

CART生成

對(duì)于回歸樹用平方誤差最小化準(zhǔn)則娱据,對(duì)分類樹用基尼指數(shù)最小化準(zhǔn)則進(jìn)行特征選擇,生成二叉樹盅惜。

回歸樹的生成

一顆回歸樹對(duì)應(yīng)著輸入空間的一個(gè)劃分以及在劃分單元上的輸出值吸耿。假設(shè)將輸入空間劃分為M個(gè)單元R_1,R_2,\cdots,R_M,并且在每個(gè)單元R_m上有一個(gè)固定的輸出值c_m酷窥,于是回歸樹模型可表示為:
f(x) = \sum^M_{m=1}c_m I(x \in R_m)
當(dāng)輸入空間的劃分確定時(shí)咽安,可以用用平方誤差\sum_{x_i \in R_m} (y_i - f(x_i))^2來表示回歸樹對(duì)于訓(xùn)練數(shù)據(jù)的預(yù)測(cè)誤差,用平方誤差最小的準(zhǔn)則求解每個(gè)單元上的最優(yōu)輸出值蓬推。易知單元R_m上的c_m的最優(yōu)值\hat{c}_mR_m上所有輸入實(shí)例x_i對(duì)應(yīng)的輸出y_i的均值妆棒,即
\hat{c}_m = ave(y_i|x_i \in R_m)
問題是怎樣對(duì)輸入空間進(jìn)行劃分,也就是如何選擇劃分結(jié)點(diǎn):

假設(shè)輸入訓(xùn)練集D沸伏,在訓(xùn)練數(shù)據(jù)集所在的輸入空間中糕珊,遞歸地將每個(gè)區(qū)域劃分為兩個(gè)子區(qū)域并決定每個(gè)子區(qū)域上的輸出值,構(gòu)建二叉決策樹毅糟。具體步驟為:

(1)選擇第j個(gè)變量x^{(j)}和它取的值s作為劃分變量和劃分點(diǎn)红选,并定義兩個(gè)區(qū)域:
R_1(j,s) = \{ x|x^{(j)} \leq s \},R_2(j,s)=\{ x|x > s \}
然后尋找最優(yōu)劃分變量j和最優(yōu)劃分點(diǎn)s,具體的姆另,求解:
\min_{j,s} \left[ \min_{c_1}\sum_{x_i \in R_1(j,s)}(y_i -c_1)^2 + \min_{c_2}\sum_{x_i \in R_2(j,s)}(y_i - c_2)^2 \right]
遍歷變量j喇肋,對(duì)固定的劃分變量j掃描切分點(diǎn)s坟乾,選擇式上式達(dá)到最小值的(j,s)

(2)用選定的(j,s)劃分區(qū)域R_1,R_2并決定相應(yīng)的輸出值:
R_1(j,s) = \{ x|x^{(j)} \leq s \},R_2(j,s)=\{x|x^{(j)} > s\}

\hat{c}_m = \frac{1}{N_m} \sum_{x_i \in R_m(j,s)}y_i, x \in R_m,m=1,2

(3)繼續(xù)對(duì)R_1,R_2兩個(gè)子區(qū)域調(diào)用步驟(1)蝶防,(2)甚侣,直到滿足停止條件;

(4)將輸入空間劃分為M個(gè)區(qū)域R_1,R_2,\cdots,R_M间学,生成決策樹:
f(x) = \sum^M_{m=1}\hat{c}_m I(x \in R_m)

分類樹的生成

基尼指數(shù):在分類問題中殷费,假設(shè)有k個(gè)類,樣本點(diǎn)屬于第k類的概率是p_k低葫,則概率分布的基尼指數(shù)定義為:
Gini(p) = \sum^K_{k=1}p_k(1-p_k) = 1 - \sum^K_{k=1}p_k^2
對(duì)于二分類問題详羡,若樣本點(diǎn)屬于第一個(gè)分類的概率為p,則概率分布的基尼指數(shù)為:
Gini(p) = 2p(1-p)
對(duì)于給定的樣本集合D嘿悬,其基尼指數(shù)為:
Gini(D) = 1-\sum^K_{k=1}(\frac{|C_k|}{|D|})^2
這里殷绍,C_kD中屬于第k類的樣本子集,K是類的個(gè)數(shù)鹊漠。

如果樣本集合D根據(jù)特征A是否取值\alpha被分割成D_1D_2兩部分,即:
D_1 = \{ (x,y) \in D|A(x)=\alpha \},D_2 = D - D_1
那么在特征A的條件下茶行,集合D的基尼指數(shù)定義為:
Gini(D,A) = \frac{|D_1|}{|D|}Gini(D_1)+\frac{|D_2|}{|D|}Gini(D_2)
基尼指數(shù)Gini(D)代表集合D的不確定性躯概,基尼指數(shù)Gini(D,A)表示經(jīng)A=\alpha分割后集合D的不確定性∨鲜Γ基尼指數(shù)越大代表不確定性程度越大娶靡。

假設(shè)輸入訓(xùn)練數(shù)據(jù)集D以及停止計(jì)算的條件,根據(jù)訓(xùn)練集看锉,從根結(jié)點(diǎn)開始姿锭,遞歸地對(duì)每個(gè)結(jié)點(diǎn)進(jìn)行以下操作,構(gòu)建決策樹:

(1)計(jì)算現(xiàn)有特征對(duì)訓(xùn)練數(shù)據(jù)集的基尼指數(shù)伯铣。此時(shí)呻此,對(duì)每一個(gè)特征A,對(duì)其可能取的每個(gè)值\alpha腔寡,根據(jù)樣本點(diǎn)對(duì)A=\alpha的測(cè)試為“是”或“否”焚鲜,將D分為D_1D_2兩部分,利用上式計(jì)算A=\alpha的基尼指數(shù)放前;

(2)對(duì)所有可能的特征A以及他忿磅,他們所有可能的切分點(diǎn)\alpha中,選擇基尼指數(shù)最小的特征及其對(duì)應(yīng)的切分點(diǎn)作為最優(yōu)特征與最優(yōu)切分點(diǎn)凭语。依最優(yōu)特征與最優(yōu)切分點(diǎn)葱她,從現(xiàn)結(jié)點(diǎn)生成兩個(gè)子結(jié)點(diǎn),將訓(xùn)練集依特征分配到兩個(gè)子結(jié)點(diǎn)去似扔;

(3)對(duì)兩個(gè)子結(jié)點(diǎn)遞歸調(diào)用(1)和(2)步驟吨些,直至滿足停止條件搓谆;

(4)生成CART決策樹;

算法停止的條件是結(jié)點(diǎn)中樣本個(gè)數(shù)小于預(yù)定閾值或者樣本的基尼指數(shù)小于預(yù)定閾值(此時(shí)此結(jié)點(diǎn)上的樣本基本屬于同一類)锤灿,或者沒有更多特征挽拔。

CART剪枝

輸入為CART算法生成的決策樹T_0,輸出為最優(yōu)決策樹T_\alpha但校,步驟如下:

(1)設(shè)k=0,T=T_0螃诅;

(2)設(shè)\alpha= + \infty

(3)自下而上地對(duì)各內(nèi)部結(jié)點(diǎn)t計(jì)算C(T_t)|T_t|以及
g(t) = \frac{C(t) - C(T_t)}{|T_t| - 1} \\ \alpha = \min (\alpha, g(t))
這里状囱,T_t表示以t為根結(jié)點(diǎn)的子樹术裸,C(T_t)是對(duì)訓(xùn)練數(shù)據(jù)的預(yù)測(cè)誤差,|T_t|T_t的葉結(jié)點(diǎn)個(gè)數(shù)亭枷;

(4)對(duì)g(t)=\alpha的內(nèi)部結(jié)點(diǎn)t進(jìn)行剪枝袭艺,并對(duì)葉結(jié)點(diǎn)t以多數(shù)表決法決定其類,得到樹T叨粘;

(5)設(shè)k=k+1,\alpha_k=\alpha,T_k=T猾编;

(6)如果T_k不是由根結(jié)點(diǎn)及兩個(gè)葉結(jié)點(diǎn)構(gòu)成的樹,則回到步驟(2)升敲;否則令T_k=T_n答倡;

(7)采用交叉驗(yàn)證法在子樹序列T_0,T_1,\cdots,T_n中選取最優(yōu)子樹T_\alpha

參考

李航《統(tǒng)計(jì)學(xué)習(xí)方法(第二版)》第五章

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末驴党,一起剝皮案震驚了整個(gè)濱河市瘪撇,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌港庄,老刑警劉巖倔既,帶你破解...
    沈念sama閱讀 218,546評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異鹏氧,居然都是意外死亡渤涌,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,224評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門把还,熙熙樓的掌柜王于貴愁眉苦臉地迎上來歼捏,“玉大人,你說我怎么就攤上這事笨篷⊥啵” “怎么了?”我有些...
    開封第一講書人閱讀 164,911評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵率翅,是天一觀的道長(zhǎng)练俐。 經(jīng)常有香客問我,道長(zhǎng)冕臭,這世上最難降的妖魔是什么腺晾? 我笑而不...
    開封第一講書人閱讀 58,737評(píng)論 1 294
  • 正文 為了忘掉前任燕锥,我火速辦了婚禮,結(jié)果婚禮上悯蝉,老公的妹妹穿的比我還像新娘归形。我一直安慰自己,他們只是感情好鼻由,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,753評(píng)論 6 392
  • 文/花漫 我一把揭開白布暇榴。 她就那樣靜靜地躺著,像睡著了一般蕉世。 火紅的嫁衣襯著肌膚如雪蔼紧。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,598評(píng)論 1 305
  • 那天狠轻,我揣著相機(jī)與錄音奸例,去河邊找鬼。 笑死向楼,一個(gè)胖子當(dāng)著我的面吹牛查吊,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播湖蜕,決...
    沈念sama閱讀 40,338評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼逻卖,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了重荠?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,249評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤虚茶,失蹤者是張志新(化名)和其女友劉穎戈鲁,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體嘹叫,經(jīng)...
    沈念sama閱讀 45,696評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡婆殿,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,888評(píng)論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了罩扇。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片婆芦。...
    茶點(diǎn)故事閱讀 40,013評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖喂饥,靈堂內(nèi)的尸體忽然破棺而出消约,到底是詐尸還是另有隱情,我是刑警寧澤员帮,帶...
    沈念sama閱讀 35,731評(píng)論 5 346
  • 正文 年R本政府宣布或粮,位于F島的核電站,受9級(jí)特大地震影響捞高,放射性物質(zhì)發(fā)生泄漏氯材。R本人自食惡果不足惜渣锦,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,348評(píng)論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望氢哮。 院中可真熱鬧袋毙,春花似錦、人聲如沸冗尤。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,929評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽生闲。三九已至媳溺,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間碍讯,已是汗流浹背悬蔽。 一陣腳步聲響...
    開封第一講書人閱讀 33,048評(píng)論 1 270
  • 我被黑心中介騙來泰國(guó)打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留捉兴,地道東北人蝎困。 一個(gè)月前我還...
    沈念sama閱讀 48,203評(píng)論 3 370
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像倍啥,于是被迫代替她去往敵國(guó)和親禾乘。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,960評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容