C6_Decision Tree 決策樹初探 以及安裝Graphviz可視化生成的決策樹

決策樹和svm一樣是一種通用機(jī)器學(xué)習(xí)算法
既可以做回歸移剪,也可以做分類
同時(shí)也是Random Forest 隨機(jī)森林的基本組件

iris數(shù)據(jù)集

安德森鳶尾花卉數(shù)據(jù)集,是一類多重變量分析數(shù)據(jù)集匾南。
部分?jǐn)?shù)據(jù)

image.png

train

這里我們就是用DecisionTreeClassifier簡(jiǎn)單的fit了這些數(shù)據(jù)。然后將它輸出成一個(gè)graphviz文件遇八,使用這個(gè)文件我們就可以講生成的決策樹可視化胃珍。

生成的文件

當(dāng)然甸昏,只有這個(gè)文件的時(shí)候我們是什么也看不到的,里面大概長(zhǎng)這樣:
dot

這個(gè)時(shí)候我們需要下載Graphviz這個(gè)繪圖軟件
注意舔清,在這里

https://graphviz.gitlab.io/_pages/Download/Download_windows.html
Windows用戶下載這個(gè)

安裝完之后把安裝目錄加到環(huán)境變量的path里
bin

之后在cmd中輸入dot -version檢測(cè)是否安裝成功


dot -version

切換到生成的dot文件所在目錄下丝里,輸入

dot -Tpng iris_tree.dot -o iris_tree.png


然后我們獲得了這個(gè)png

iris_tree.png

可以看出,我們只是用了花瓣長(zhǎng)度和花瓣寬度兩個(gè)特征去判別這個(gè)樣本屬于哪一種Iris体谒,首先看長(zhǎng)度杯聚,小于2.45的就直接被判定成是setosa了,大于的再根據(jù)寬度判斷是versicolor還是virginica抒痒。

決策樹的一大好處就是不需要非常大的數(shù)據(jù)量幌绍,也不需要特征縮放和中心化
samples指的是這一類中有多少樣本。

value告訴你實(shí)際上分布的情況是怎樣的故响,比如第一層的左邊的節(jié)點(diǎn)里有50個(gè)樣本傀广,這50個(gè)樣本全是屬于setosa類的,然而右節(jié)點(diǎn)里有100個(gè)樣本彩届,50個(gè)是versicolor主儡,50個(gè)是virginica。

gini指的是這個(gè)節(jié)點(diǎn)的純度惨缆,第一層的左邊的節(jié)點(diǎn)50個(gè)樣本中全是輸入setosa類的糜值,所以是純的,gini為0坯墨。右邊的節(jié)點(diǎn)是versicolor類寂汇,但有一半是virginica,所以gini是0.5捣染。第二層左邊是versicolor類骄瓣,有53個(gè)樣本但其中只有49個(gè)真的是versicolor,所以
gini=1-(0/54)2-(49/54)2 -(5/54)2 ≈0.168耍攘。

sklean 使用Cart算法榕栏,只能生成二叉樹畔勤,如果是ID3之類的算法一個(gè)節(jié)點(diǎn)可以有更多子節(jié)點(diǎn)。

決策樹的決策邊界

Decision Tree通常被當(dāng)成是一種白盒模型扒磁,因?yàn)榭磮D就明白它所做的預(yù)測(cè)的原理都是可以被簡(jiǎn)單地理解的庆揪,而隨機(jī)森林和神經(jīng)網(wǎng)絡(luò)算法則通常被當(dāng)成黑盒模型。

也可以做概率估計(jì)

CART 訓(xùn)練算法

全稱Classification And Regression Tree
簡(jiǎn)單地說就是選取一個(gè)特征 k 和一個(gè)閾值tk,將訓(xùn)練集分割成兩部分妨托,尋找k和tk的方法就是找到一組能夠產(chǎn)生最純的子集的(k缸榛,tk).
損失函數(shù)為


損失函數(shù)

其中G是子集中的不純度,m是子集中樣本數(shù)量兰伤。
然后它會(huì)在子集中做同樣的事内颗,,當(dāng)然我們會(huì)加一些制約防止它一直這么干下去敦腔。

CART算法是一種貪心算法均澳,通常會(huì)給出一個(gè)優(yōu)秀的解,但不一定是最優(yōu)的選擇符衔。不幸的是找出最優(yōu)的那棵樹是一個(gè)NP完全問題找前。

正則化超參數(shù)

決策樹是一種nonparametric(非參數(shù)的)模型,它的參數(shù)對(duì)訓(xùn)練來說不是很重要柏腻,所以很容易就過擬合了纸厉。防止過擬合的方法被稱作正則化系吭,正則化參數(shù)取決于你所用的模型五嫂,在sklearn里我們用max_depth來防止過擬合。

DecisionTreeClassifier 有一些其他的參數(shù)來規(guī)范樹的形狀肯尺。

  • min_samples_split(在被分割前這個(gè)子集必須至少包含這么多samples)
  • min_samples_leaf(一個(gè)葉節(jié)點(diǎn)里必須至少有那么多samples)
  • min_weight_fraction_leaf(大概和上一個(gè)一樣)
  • max_leaf_nodes(最多有多少節(jié)點(diǎn))
  • max_features(最多有多少特征用來分割)
正則化前:正則化后
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末沃缘,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子则吟,更是在濱河造成了極大的恐慌槐臀,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,490評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件氓仲,死亡現(xiàn)場(chǎng)離奇詭異水慨,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)敬扛,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,581評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門晰洒,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人啥箭,你說我怎么就攤上這事谍珊。” “怎么了急侥?”我有些...
    開封第一講書人閱讀 165,830評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵砌滞,是天一觀的道長(zhǎng)侮邀。 經(jīng)常有香客問我,道長(zhǎng)贝润,這世上最難降的妖魔是什么绊茧? 我笑而不...
    開封第一講書人閱讀 58,957評(píng)論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮题暖,結(jié)果婚禮上按傅,老公的妹妹穿的比我還像新娘。我一直安慰自己胧卤,他們只是感情好唯绍,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,974評(píng)論 6 393
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著枝誊,像睡著了一般况芒。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上叶撒,一...
    開封第一講書人閱讀 51,754評(píng)論 1 307
  • 那天绝骚,我揣著相機(jī)與錄音,去河邊找鬼祠够。 笑死压汪,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的古瓤。 我是一名探鬼主播止剖,決...
    沈念sama閱讀 40,464評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼落君!你這毒婦竟也來了穿香?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,357評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤绎速,失蹤者是張志新(化名)和其女友劉穎皮获,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體纹冤,經(jīng)...
    沈念sama閱讀 45,847評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡洒宝,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,995評(píng)論 3 338
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了萌京。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片雁歌。...
    茶點(diǎn)故事閱讀 40,137評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖枫夺,靈堂內(nèi)的尸體忽然破棺而出将宪,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 35,819評(píng)論 5 346
  • 正文 年R本政府宣布较坛,位于F島的核電站印蔗,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏丑勤。R本人自食惡果不足惜华嘹,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,482評(píng)論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望法竞。 院中可真熱鬧耙厚,春花似錦、人聲如沸岔霸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,023評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)呆细。三九已至型宝,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間絮爷,已是汗流浹背趴酣。 一陣腳步聲響...
    開封第一講書人閱讀 33,149評(píng)論 1 272
  • 我被黑心中介騙來泰國(guó)打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留坑夯,地道東北人岖寞。 一個(gè)月前我還...
    沈念sama閱讀 48,409評(píng)論 3 373
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像柜蜈,于是被迫代替她去往敵國(guó)和親仗谆。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,086評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容

  • 1跨释、模型原理 (一)原理 1胸私、原理:引入信息熵(不確定程度)的概念厌处,通過計(jì)算各屬性下的信息增益程度(信息增益越大鳖谈,...
    Python_Franklin閱讀 12,362評(píng)論 0 17
  • 決策樹理論在決策樹理論中,有這樣一句話阔涉,“用較少的東西缆娃,照樣可以做很好的事情。越是小的決策樹瑰排,越優(yōu)于大的決策樹”贯要。...
    制杖灶灶閱讀 5,857評(píng)論 0 25
  • 決策樹: ID3:其核心是在決策樹的各級(jí)節(jié)點(diǎn)上,實(shí)用信息增益(information gain)作為屬性的選擇標(biāo)準(zhǔn)...
    Vince_zzhang閱讀 2,092評(píng)論 0 0
  • 前言: 通過第前面的學(xué)習(xí)介紹了機(jī)器學(xué)習(xí)回歸模型創(chuàng)建的流程椭住,并且知道了機(jī)器學(xué)習(xí)要做的事情是找到目標(biāo)函數(shù)崇渗,優(yōu)化它,通過...
    飄涯閱讀 6,395評(píng)論 4 83
  • 工作日午飯前,經(jīng)歷了一次真正的“談判”宅广,雖然談判的過程根本不會(huì)有任何記錄葫掉,因?yàn)橛懻摰慕Y(jié)果是不用直接談判方式,改直接...
    吳佟閱讀 194評(píng)論 0 0