決策樹——CART算法

對(duì)于C4.5算法,我們也提到了它的不足申钩,比如模型是用較為復(fù)雜的熵來度量,使用了相對(duì)較為復(fù)雜的多叉樹瘪阁,只能處理分類不能處理回歸等撒遣。對(duì)于這些問題邮偎, CART算法大部分做了改進(jìn)。CART算法也就是我們下面的重點(diǎn)了义黎。由于CART算法可以做回歸禾进,也可以做分類,我們分別加以介紹廉涕,先從CART分類樹算法開始泻云,重點(diǎn)比較和C4.5算法的不同點(diǎn)。接著介紹CART回歸樹算法狐蜕,重點(diǎn)介紹和CART分類樹的不同點(diǎn)宠纯。然后我們討論CART樹的建樹算法和剪枝算法,最后總結(jié)決策樹算法的優(yōu)缺點(diǎn)层释。

1. CART(Classification And Regression Tree)分類回歸樹算法的最優(yōu)特征選擇方法

    我們知道婆瓜,在ID3算法中我們使用了信息增益來選擇特征,信息增益大的優(yōu)先選擇贡羔。在C4.5算法中勃救,采用了信息增益比來選擇特征,以減少信息增益容易選擇特征值多的特征的問題治力。但是無論是ID3還是C4.5,都是基于信息論的熵模型的蒙秒,這里面會(huì)涉及大量的對(duì)數(shù)運(yùn)算。能不能簡(jiǎn)化模型同時(shí)也不至于完全丟失熵模型的優(yōu)點(diǎn)呢宵统?有晕讲!CART分類樹算法使用基尼系數(shù)來代替信息增益比,基尼系數(shù)代表了模型的不純度马澈,基尼系數(shù)越小瓢省,則不純度越低,特征越好痊班。這和信息增益(比)是相反的勤婚。

    具體的,在分類問題中涤伐,假設(shè)有K個(gè)類別馒胆,第k個(gè)類別的概率為pkpk, 則基尼系數(shù)的表達(dá)式為:


Gini(p)=∑k=1Kpk(1?pk)=1?∑k=1Kp2kGini(p)=∑k=1Kpk(1?pk)=1?∑k=1Kpk2


    如果是二類分類問題,計(jì)算就更加簡(jiǎn)單了凝果,如果屬于第一個(gè)樣本輸出的概率是p祝迂,則基尼系數(shù)的表達(dá)式為:


Gini(p)=2p(1?p)Gini(p)=2p(1?p)


    對(duì)于個(gè)給定的樣本D,假設(shè)有K個(gè)類別, 第k個(gè)類別的數(shù)量為CkCk,則樣本D的基尼系數(shù)表達(dá)式為:


Gini(D)=1?∑k=1K(|Ck||D|)2Gini(D)=1?∑k=1K(|Ck||D|)2



    特別的,對(duì)于樣本D,如果根據(jù)特征A的某個(gè)值a,把D分成D1和D2兩部分器净,則在特征A的條件下型雳,D的基尼系數(shù)表達(dá)式為:


Gini(D,A)=|D1||D|Gini(D1)+|D2||D|Gini(D2)Gini(D,A)=|D1||D|Gini(D1)+|D2||D|Gini(D2)


    大家可以比較下基尼系數(shù)表達(dá)式和熵模型的表達(dá)式,二次運(yùn)算是不是比對(duì)數(shù)簡(jiǎn)單很多?尤其是二類分類的計(jì)算纠俭,更加簡(jiǎn)單沿量。但是簡(jiǎn)單歸簡(jiǎn)單,和熵模型的度量方式比冤荆,基尼系數(shù)對(duì)應(yīng)的誤差有多大呢欧瘪?對(duì)于二類分類,基尼系數(shù)和熵之半的曲線如下:

    從上圖可以看出匙赞,基尼系數(shù)和熵之半的曲線非常接近,僅僅在45度角附近誤差稍大妖碉。因此涌庭,基尼系數(shù)可以做為熵模型的一個(gè)近似替代。而CART分類樹算法就是使用的基尼系數(shù)來選擇決策樹的特征欧宜。同時(shí)坐榆,為了進(jìn)一步簡(jiǎn)化,CART分類樹算法每次僅僅對(duì)某個(gè)特征的值進(jìn)行二分冗茸,而不是多分席镀,這樣CART分類樹算法建立起來的是二叉樹,而不是多叉樹夏漱。這樣一可以進(jìn)一步簡(jiǎn)化基尼系數(shù)的計(jì)算豪诲,二可以建立一個(gè)更加優(yōu)雅的二叉樹模型。

2. CART分類樹算法對(duì)于連續(xù)特征和離散特征處理的改進(jìn)

    對(duì)于CART分類樹連續(xù)值的處理問題挂绰,其思想和C4.5是相同的屎篱,都是將連續(xù)的特征離散化。唯一的區(qū)別在于在選擇劃分點(diǎn)時(shí)的度量方式不同态辛,C4.5使用的是信息增益起惕,則CART分類樹使用的是基尼系數(shù)辞槐。

    具體的思路如下,比如m個(gè)樣本的連續(xù)特征A有m個(gè)秦士,從小到大排列為a1,a2,...,ama1,a2,...,am,則CART算法取相鄰兩樣本值的中位數(shù),一共取得m-1個(gè)劃分點(diǎn)永高,其中第i個(gè)劃分點(diǎn)Ti表示Ti表示為:Ti=ai+ai+12Ti=ai+ai+12隧土。對(duì)于這m-1個(gè)點(diǎn),分別計(jì)算以該點(diǎn)作為二元分類點(diǎn)時(shí)的基尼系數(shù)命爬。選擇基尼系數(shù)最小的點(diǎn)作為該連續(xù)特征的二元離散分類點(diǎn)次洼。比如取到的基尼系數(shù)最小的點(diǎn)為atat,則小于atat的值為類別1,大于atat的值為類別2遇骑,這樣我們就做到了連續(xù)特征的離散化卖毁。要注意的是,與離散屬性不同的是,如果當(dāng)前節(jié)點(diǎn)為連續(xù)屬性亥啦,則該屬性后面還可以參與子節(jié)點(diǎn)的產(chǎn)生選擇過程炭剪。


    對(duì)于CART分類樹離散值的處理問題,采用的思路是不停的二分離散特征翔脱。

    回憶下ID3或者C4.5奴拦,如果某個(gè)特征A被選取建立決策樹節(jié)點(diǎn),如果它有A1,A2,A3三種類別届吁,我們會(huì)在決策樹上一下建立一個(gè)三叉的節(jié)點(diǎn)错妖。這樣導(dǎo)致決策樹是多叉樹。但是CART分類樹使用的方法不同疚沐,他采用的是不停的二分暂氯,還是這個(gè)例子,CART分類樹會(huì)考慮把A分成{A1}和{A2,A3}{A1}和{A2,A3}, {A2}和{A1,A3}{A2}和{A1,A3}, {A3}和{A1,A2}{A3}和{A1,A2}三種情況亮蛔,找到基尼系數(shù)最小的組合痴施,比如{A2}和{A1,A3}{A2}和{A1,A3},然后建立二叉樹節(jié)點(diǎn),一個(gè)節(jié)點(diǎn)是A2對(duì)應(yīng)的樣本究流,另一個(gè)節(jié)點(diǎn)是{A1,A3}對(duì)應(yīng)的節(jié)點(diǎn)辣吃。同時(shí),由于這次沒有把特征A的取值完全分開芬探,后面我們還有機(jī)會(huì)在子節(jié)點(diǎn)繼續(xù)選擇到特征A來劃分A1和A3神得。這和ID3或者C4.5不同,在ID3或者C4.5的一棵子樹中偷仿,離散特征只會(huì)參與一次節(jié)點(diǎn)的建立循头。

3. CART分類樹建立算法的具體流程

    上面介紹了CART算法的一些和C4.5不同之處,下面我們看看CART分類樹建立算法的具體流程炎疆,之所以加上了建立卡骂,是因?yàn)镃ART樹算法還有獨(dú)立的剪枝算法這一塊,這塊我們?cè)诘?節(jié)講形入。

    算法輸入是訓(xùn)練集D全跨,基尼系數(shù)的閾值,樣本個(gè)數(shù)閾值亿遂。

    輸出是決策樹T浓若。

    我們的算法從根節(jié)點(diǎn)開始,用訓(xùn)練集遞歸的建立CART樹蛇数。

    1) 對(duì)于當(dāng)前節(jié)點(diǎn)的數(shù)據(jù)集為D挪钓,如果樣本個(gè)數(shù)小于閾值或者沒有特征,則返回決策子樹耳舅,當(dāng)前節(jié)點(diǎn)停止遞歸碌上。

    2) 計(jì)算樣本集D的基尼系數(shù)倚评,如果基尼系數(shù)小于閾值,則返回決策樹子樹馏予,當(dāng)前節(jié)點(diǎn)停止遞歸天梧。

    3) 計(jì)算當(dāng)前節(jié)點(diǎn)現(xiàn)有的各個(gè)特征的各個(gè)特征值對(duì)數(shù)據(jù)集D的基尼系數(shù),對(duì)于離散值和連續(xù)值的處理方法和基尼系數(shù)的計(jì)算見第二節(jié)霞丧。缺失值的處理方法和上篇的C4.5算法里描述的相同呢岗。

    4) 在計(jì)算出來的各個(gè)特征的各個(gè)特征值對(duì)數(shù)據(jù)集D的基尼系數(shù)中,選擇基尼系數(shù)最小的特征A和對(duì)應(yīng)的特征值a蛹尝。根據(jù)這個(gè)最優(yōu)特征和最優(yōu)特征值后豫,把數(shù)據(jù)集劃分成兩部分D1和D2,同時(shí)建立當(dāng)前節(jié)點(diǎn)的左右節(jié)點(diǎn)突那,做節(jié)點(diǎn)的數(shù)據(jù)集D為D1挫酿,右節(jié)點(diǎn)的數(shù)據(jù)集D為D2.

    5) 對(duì)左右的子節(jié)點(diǎn)遞歸的調(diào)用1-4步,生成決策樹陨收。

   

    對(duì)于生成的決策樹做預(yù)測(cè)的時(shí)候,假如測(cè)試集里的樣本A落到了某個(gè)葉子節(jié)點(diǎn)鸵赖,而節(jié)點(diǎn)里有多個(gè)訓(xùn)練樣本务漩。則對(duì)于A的類別預(yù)測(cè)采用的是這個(gè)葉子節(jié)點(diǎn)里概率最大的類別。

4. CART回歸樹建立算法

    CART回歸樹和CART分類樹的建立算法大部分是類似的它褪,所以這里我們只討論CART回歸樹和CART分類樹的建立算法不同的地方饵骨。

    首先,我們要明白茫打,什么是回歸樹居触,什么是分類樹。兩者的區(qū)別在于樣本輸出老赤,如果樣本輸出是離散值轮洋,那么這是一顆分類樹。如果果樣本輸出是連續(xù)值抬旺,那么那么這是一顆回歸樹弊予。

    除了概念的不同,CART回歸樹和CART分類樹的建立和預(yù)測(cè)的區(qū)別主要有下面兩點(diǎn):

    1)連續(xù)值的處理方法不同

    2)決策樹建立后做預(yù)測(cè)的方式不同开财。


    對(duì)于連續(xù)值的處理汉柒,我們知道CART分類樹采用的是用基尼系數(shù)的大小來度量特征的各個(gè)劃分點(diǎn)的優(yōu)劣情況。這比較適合分類模型责鳍,但是對(duì)于回歸模型碾褂,我們使用了常見的均方差的度量方式,CART回歸樹的度量目標(biāo)是历葛,對(duì)于任意劃分特征A正塌,對(duì)應(yīng)的任意劃分點(diǎn)s兩邊劃分成的數(shù)據(jù)集D1和D2,求出使D1和D2各自集合的均方差最小,同時(shí)D1和D2的均方差之和最小所對(duì)應(yīng)的特征和特征值劃分點(diǎn)传货。表達(dá)式為:


minA,s[minc1∑xi∈D1(A,s)(yi?c1)2+minc2∑xi∈D2(A,s)(yi?c2)2]min?A,s[min?c1∑xi∈D1(A,s)(yi?c1)2+min?c2∑xi∈D2(A,s)(yi?c2)2]


    其中屎鳍,c1c1為D1數(shù)據(jù)集的樣本輸出均值,c2c2為D2數(shù)據(jù)集的樣本輸出均值问裕。


    對(duì)于決策樹建立后做預(yù)測(cè)的方式逮壁,上面講到了CART分類樹采用葉子節(jié)點(diǎn)里概率最大的類別作為當(dāng)前節(jié)點(diǎn)的預(yù)測(cè)類別。而回歸樹輸出不是類別粮宛,它采用的是用最終葉子的均值或者中位數(shù)來預(yù)測(cè)輸出結(jié)果窥淆。

    除了上面提到了以外,CART回歸樹和CART分類樹的建立算法和預(yù)測(cè)沒有什么區(qū)別巍杈。

5. CART樹算法的剪枝

    CART回歸樹和CART分類樹的剪枝策略除了在度量損失的時(shí)候一個(gè)使用均方差忧饭,一個(gè)使用基尼系數(shù),算法基本完全一樣筷畦,這里我們一起來講词裤。

    由于決策時(shí)算法很容易對(duì)訓(xùn)練集過擬合,而導(dǎo)致泛化能力差鳖宾,為了解決這個(gè)問題吼砂,我們需要對(duì)CART樹進(jìn)行剪枝,即類似于線性回歸的正則化鼎文,來增加決策樹的返回能力渔肩。但是,有很多的剪枝方法拇惋,我們應(yīng)該這么選擇呢周偎?CART采用的辦法是后剪枝法,即先生成決策樹撑帖,然后產(chǎn)生所有可能的剪枝后的CART樹蓉坎,然后使用交叉驗(yàn)證來檢驗(yàn)各種剪枝的效果,選擇泛化能力最好的剪枝策略胡嘿。

    也就是說袍嬉,CART樹的剪枝算法可以概括為兩步,第一步是從原始決策樹生成各種剪枝效果的決策樹灶平,第二部是用交叉驗(yàn)證來檢驗(yàn)剪枝后的預(yù)測(cè)能力伺通,選擇泛化預(yù)測(cè)能力最好的剪枝后的數(shù)作為最終的CART樹。


    首先我們看看剪枝的損失函數(shù)度量逢享,在剪枝的過程中罐监,對(duì)于任意的一刻子樹T,其損失函數(shù)為:


Cα(Tt)=C(Tt)+α|Tt|Cα(Tt)=C(Tt)+α|Tt|


    其中,αα為正則化參數(shù)瞒爬,這和線性回歸的正則化一樣弓柱。C(Tt)C(Tt)為訓(xùn)練數(shù)據(jù)的預(yù)測(cè)誤差沟堡,分類樹是用基尼系數(shù)度量,回歸樹是均方差度量矢空。|Tt||Tt|是子樹T的葉子節(jié)點(diǎn)的數(shù)量航罗。

    當(dāng)α=0α=0時(shí),即沒有正則化屁药,原始的生成的CART樹即為最優(yōu)子樹粥血。當(dāng)α=∞α=∞時(shí),即正則化強(qiáng)度達(dá)到最大酿箭,此時(shí)由原始的生成的CART樹的根節(jié)點(diǎn)組成的單節(jié)點(diǎn)樹為最優(yōu)子樹复亏。當(dāng)然,這是兩種極端情況缭嫡。一般來說缔御,αα越大,則剪枝剪的越厲害妇蛀,生成的最優(yōu)子樹相比原生決策樹就越偏小耕突。對(duì)于固定的αα,一定存在使損失函數(shù)Cα(T)Cα(T)最小的唯一子樹评架。


    看過剪枝的損失函數(shù)度量后眷茁,我們?cè)賮砜纯醇糁Φ乃悸罚瑢?duì)于位于節(jié)點(diǎn)t的任意一顆子樹TtTt古程,如果沒有剪枝蔼卡,它的損失是


Cα(Tt)=C(Tt)+α|Tt|Cα(Tt)=C(Tt)+α|Tt|


    如果將其剪掉喊崖,僅僅保留根節(jié)點(diǎn)挣磨,則損失是


Cα(T)=C(T)+αCα(T)=C(T)+α

 


    當(dāng)α=0α=0或者αα很小時(shí),Cα(Tt)<Cα(T)Cα(Tt)<Cα(T) , 當(dāng)αα增大到一定的程度時(shí)

Cα(T)=C(T)+αCα(T)=C(T)+α

荤懂。當(dāng)αα繼續(xù)增大時(shí)不等式反向茁裙,也就是說,如果滿足下式:



α=C(T)?C(Tt)|Tt|?1α=C(T)?C(Tt)|Tt|?1


    TtTt和TT有相同的損失函數(shù)节仿,但是TT節(jié)點(diǎn)更少晤锥,因此可以對(duì)子樹TtTt進(jìn)行剪枝,也就是將它的子節(jié)點(diǎn)全部剪掉廊宪,變?yōu)橐粋€(gè)葉子節(jié)點(diǎn)TT矾瘾。


    最后我們看看CART樹的交叉驗(yàn)證策略。上面我們講到箭启,可以計(jì)算出每個(gè)子樹是否剪枝的閾值αα壕翩,如果我們把所有的節(jié)點(diǎn)是否剪枝的值αα都計(jì)算出來,然后分別針對(duì)不同的αα所對(duì)應(yīng)的剪枝后的最優(yōu)子樹做交叉驗(yàn)證傅寡。這樣就可以選擇一個(gè)最好的αα放妈,有了這個(gè)αα北救,我們就可以用對(duì)應(yīng)的最優(yōu)子樹作為最終結(jié)果。


    好了芜抒,有了上面的思路珍策,我們現(xiàn)在來看看CART樹的剪枝算法。

    輸入是CART樹建立算法得到的原始決策樹TT宅倒。

    輸出是最優(yōu)決策子樹TαTα攘宙。

    算法過程如下:

    1)初始化αmin=∞αmin=∞, 最優(yōu)子樹集合ω={T}ω={T}唉堪。

    2)從葉子節(jié)點(diǎn)開始自下而上計(jì)算各內(nèi)部節(jié)點(diǎn)t的訓(xùn)練誤差損失函數(shù)Cα(Tt)Cα(Tt)(回歸樹為均方差模聋,分類樹為基尼系數(shù)), 葉子節(jié)點(diǎn)數(shù)|Tt||Tt|,以及正則化閾值α=min{C(T)?C(Tt)|Tt|?1,αmin}α=min{C(T)?C(Tt)|Tt|?1,αmin}, 更新αmin=ααmin=α

    3) 得到所有節(jié)點(diǎn)的αα值的集合M唠亚。

    4)從M中選擇最大的值αkαk链方,自上而下的訪問子樹t的內(nèi)部節(jié)點(diǎn),如果C(T)?C(Tt)|Tt|?1≤αkC(T)?C(Tt)|Tt|?1≤αk時(shí)灶搜,進(jìn)行剪枝祟蚀。并決定葉節(jié)點(diǎn)t的值。如果是分類樹割卖,則是概率最高的類別前酿,如果是回歸樹,則是所有樣本輸出的均值鹏溯。這樣得到αkαk對(duì)應(yīng)的最優(yōu)子樹TkTk

    5)最優(yōu)子樹集合ω=ω∪Tkω=ω∪Tk罢维, M=M?{αk}M=M?{αk}。

    6) 如果M不為空丙挽,則回到步驟4肺孵。否則就已經(jīng)得到了所有的可選最優(yōu)子樹集合ωω.

    7) 采用交叉驗(yàn)證在ωω選擇最優(yōu)子樹TαTα

6. CART算法小結(jié)

    上面我們對(duì)CART算法做了一個(gè)詳細(xì)的介紹,CART算法相比C4.5算法的分類方法颜阐,采用了簡(jiǎn)化的二叉樹模型平窘,同時(shí)特征選擇采用了近似的基尼系數(shù)來簡(jiǎn)化計(jì)算。當(dāng)然CART樹最大的好處是還可以做回歸模型凳怨,這個(gè)C4.5沒有瑰艘。下表給出了ID3,C4.5和CART的一個(gè)比較總結(jié)肤舞。希望可以幫助大家理解紫新。

算法 支持模型 樹結(jié)構(gòu) 特征選擇 連續(xù)值處理 缺失值處理 剪枝

ID3 分類 多叉樹 信息增益 不支持 不支持 不支持

C4.5 分類 多叉樹 信息增益比 支持 支持 支持

CART 分類,回歸 二叉樹 基尼系數(shù)李剖,均方差 支持 支持 支持

    看起來CART算法高大上芒率,那么CART算法還有沒有什么缺點(diǎn)呢?有杖爽!主要的缺點(diǎn)我認(rèn)為如下:

    1)應(yīng)該大家有注意到敲董,無論是ID3, C4.5還是CART,在做特征選擇的時(shí)候都是選擇最優(yōu)的一個(gè)特征來做分類決策紫皇,但是大多數(shù),分類決策不應(yīng)該是由某一個(gè)特征決定的腋寨,而是應(yīng)該由一組特征決定的聪铺。這樣絕息到的決策樹更加準(zhǔn)確。這個(gè)決策樹叫做多變量決策樹(multi-variate decision tree)萄窜。在選擇最優(yōu)特征的時(shí)候铃剔,多變量決策樹不是選擇某一個(gè)最優(yōu)特征,而是選擇最優(yōu)的一個(gè)特征線性組合來做決策查刻。這個(gè)算法的代表是OC1键兜,這里不多介紹。

    2)如果樣本發(fā)生一點(diǎn)點(diǎn)的改動(dòng)穗泵,就會(huì)導(dǎo)致樹結(jié)構(gòu)的劇烈改變普气。這個(gè)可以通過集成學(xué)習(xí)里面的隨機(jī)森林之類的方法解決〉柩樱   

7. 決策樹算法小結(jié)

    終于到了最后的總結(jié)階段了现诀,這里我們不再糾結(jié)于ID3, C4.5和 CART,我們來看看決策樹算法作為一個(gè)大類別的分類回歸算法的優(yōu)缺點(diǎn)履肃。這部分總結(jié)于scikit-learn的英文文檔仔沿。


    首先我們看看決策樹算法的優(yōu)點(diǎn):

    1)簡(jiǎn)單直觀,生成的決策樹很直觀尺棋。

    2)基本不需要預(yù)處理封锉,不需要提前歸一化,處理缺失值膘螟。

    3)使用決策樹預(yù)測(cè)的代價(jià)是O(log2m)O(log2m)成福。 m為樣本數(shù)。

    4)既可以處理離散值也可以處理連續(xù)值萍鲸。很多算法只是專注于離散值或者連續(xù)值闷叉。

    5)可以處理多維度輸出的分類問題擦俐。

    6)相比于神經(jīng)網(wǎng)絡(luò)之類的黑盒分類模型脊阴,決策樹在邏輯上可以得到很好的解釋

    7)可以交叉驗(yàn)證的剪枝來選擇模型,從而提高泛化能力蚯瞧。

    8) 對(duì)于異常點(diǎn)的容錯(cuò)能力好嘿期,健壯性高。


    我們?cè)倏纯礇Q策樹算法的缺點(diǎn):

    1)決策樹算法非常容易過擬合埋合,導(dǎo)致泛化能力不強(qiáng)备徐。可以通過設(shè)置節(jié)點(diǎn)最少樣本數(shù)量和限制決策樹深度來改進(jìn)甚颂。

    2)決策樹會(huì)因?yàn)闃颖景l(fā)生一點(diǎn)點(diǎn)的改動(dòng)蜜猾,就會(huì)導(dǎo)致樹結(jié)構(gòu)的劇烈改變秀菱。這個(gè)可以通過集成學(xué)習(xí)之類的方法解決。

    3)尋找最優(yōu)的決策樹是一個(gè)NP難的問題蹭睡,我們一般是通過啟發(fā)式方法衍菱,容易陷入局部最優(yōu)〖缁恚可以通過集成學(xué)習(xí)之類的方法來改善脊串。

    4)有些比較復(fù)雜的關(guān)系,決策樹很難學(xué)習(xí)清钥,比如異或琼锋。這個(gè)就沒有辦法了,一般這種關(guān)系可以換神經(jīng)網(wǎng)絡(luò)分類方法來解決祟昭。

    5)如果某些特征的樣本比例過大缕坎,生成決策樹容易偏向于這些特征。這個(gè)可以通過調(diào)節(jié)樣本權(quán)重來改善篡悟。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末念赶,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子恰力,更是在濱河造成了極大的恐慌叉谜,老刑警劉巖,帶你破解...
    沈念sama閱讀 222,729評(píng)論 6 517
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件踩萎,死亡現(xiàn)場(chǎng)離奇詭異停局,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)香府,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,226評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門董栽,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人企孩,你說我怎么就攤上這事锭碳。” “怎么了勿璃?”我有些...
    開封第一講書人閱讀 169,461評(píng)論 0 362
  • 文/不壞的土叔 我叫張陵擒抛,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我补疑,道長(zhǎng)歧沪,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 60,135評(píng)論 1 300
  • 正文 為了忘掉前任莲组,我火速辦了婚禮诊胞,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘锹杈。我一直安慰自己撵孤,他們只是感情好迈着,可當(dāng)我...
    茶點(diǎn)故事閱讀 69,130評(píng)論 6 398
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著邪码,像睡著了一般寥假。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上霞扬,一...
    開封第一講書人閱讀 52,736評(píng)論 1 312
  • 那天糕韧,我揣著相機(jī)與錄音,去河邊找鬼喻圃。 笑死萤彩,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的斧拍。 我是一名探鬼主播雀扶,決...
    沈念sama閱讀 41,179評(píng)論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼肆汹!你這毒婦竟也來了愚墓?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 40,124評(píng)論 0 277
  • 序言:老撾萬榮一對(duì)情侶失蹤昂勉,失蹤者是張志新(化名)和其女友劉穎浪册,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體岗照,經(jīng)...
    沈念sama閱讀 46,657評(píng)論 1 320
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡村象,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,723評(píng)論 3 342
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了攒至。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片厚者。...
    茶點(diǎn)故事閱讀 40,872評(píng)論 1 353
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖迫吐,靈堂內(nèi)的尸體忽然破棺而出库菲,到底是詐尸還是另有隱情,我是刑警寧澤志膀,帶...
    沈念sama閱讀 36,533評(píng)論 5 351
  • 正文 年R本政府宣布熙宇,位于F島的核電站,受9級(jí)特大地震影響梧却,放射性物質(zhì)發(fā)生泄漏奇颠。R本人自食惡果不足惜败去,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,213評(píng)論 3 336
  • 文/蒙蒙 一放航、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧圆裕,春花似錦广鳍、人聲如沸荆几。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,700評(píng)論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽吨铸。三九已至,卻和暖如春祖秒,著一層夾襖步出監(jiān)牢的瞬間诞吱,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,819評(píng)論 1 274
  • 我被黑心中介騙來泰國打工竭缝, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留房维,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 49,304評(píng)論 3 379
  • 正文 我出身青樓抬纸,卻偏偏與公主長(zhǎng)得像咙俩,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子湿故,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,876評(píng)論 2 361

推薦閱讀更多精彩內(nèi)容

  • 決策樹 1.概述 決策樹由節(jié)點(diǎn)和有向邊組成阿趁,節(jié)點(diǎn)有兩種類型,內(nèi)部節(jié)點(diǎn)和葉節(jié)點(diǎn)坛猪,內(nèi)部節(jié)點(diǎn)表示一個(gè)特征或?qū)傩圆闭螅~節(jié)點(diǎn)表...
    Evermemo閱讀 2,296評(píng)論 0 1
  • 1.前言 決策樹是一種基本的分類和回歸方法。決策樹呈樹形結(jié)構(gòu)墅茉,在分類問題中独撇,表示基于特征對(duì)實(shí)例進(jìn)行分類的過程。采用...
    勝利主義章北海閱讀 2,647評(píng)論 0 0
  • 決策樹基礎(chǔ)概念 決策樹分為分類樹和回歸樹兩種躁锁,分類樹對(duì)離散變量做決策樹纷铣,回歸樹對(duì)連續(xù)變量做決策樹。每個(gè)內(nèi)部節(jié)點(diǎn)(非...
    我只要喝點(diǎn)果粒橙閱讀 2,600評(píng)論 0 0
  • 決策樹理論在決策樹理論中战转,有這樣一句話搜立,“用較少的東西,照樣可以做很好的事情槐秧。越是小的決策樹啄踊,越優(yōu)于大的決策樹”。...
    制杖灶灶閱讀 5,866評(píng)論 0 25
  • 孩時(shí)的一種癮 不必隱藏 我沒有喝醉刁标,說的都是真心話 只是酒幫我撒了一個(gè)彌天大謊 我是個(gè)造謠者 講著光怪陸離的故事 ...
    吳小溪閱讀 239評(píng)論 3 2