這一篇繼續(xù)boosting荆隘,介紹一下提升樹(shù)算法恩伺, 提升樹(shù)以決策樹(shù)為基模型, 依然是加法模型椰拒,優(yōu)化算法是前向分步算法晶渠。
針對(duì)分類問(wèn)題, 決策樹(shù)是二叉分類樹(shù)燃观, 回歸問(wèn)題則是二叉回歸樹(shù)褒脯。
第m步之后的模型, 是
是m步學(xué)習(xí)之前的模型缆毁,通過(guò)極小化損失函數(shù)番川,得到第m棵決策樹(shù)的參數(shù)
針對(duì)不同的問(wèn)題,區(qū)別在于損失函數(shù)的不同脊框, 回歸問(wèn)題采用的是平方誤差颁督, 分類問(wèn)題是指數(shù)損失誤差
當(dāng)處理二分類問(wèn)題的時(shí)候, 提升樹(shù)模型浇雹,等價(jià)于基模型為二叉決策樹(shù)的AdaBoost算法沉御。因此這邊不再做詳細(xì)的介紹
因此這一篇我們主要介紹一下回歸問(wèn)題中的提升樹(shù)
參數(shù)表示樹(shù)的區(qū)域劃分和每個(gè)區(qū)域的輸出值昭灵, J就是葉子結(jié)點(diǎn)的個(gè)數(shù)嚷节。
這個(gè)問(wèn)題的前向分部算法可以表示為:
第m步時(shí), 只需要求解
采用平方誤差虎锚,?
即
, 即第m-1次學(xué)習(xí)后模型的擬合殘差硫痰。所以對(duì)于第m次學(xué)習(xí), 只需要擬合當(dāng)前模型的殘差即可窜护。
如果理解了前一篇效斑, 這一篇的提升樹(shù)理解起來(lái)應(yīng)該比較容易。
但是提升樹(shù)也有局限性柱徙,當(dāng)損失函數(shù)是平方損失或是指數(shù)損失的時(shí)候缓屠,前向分步算法去優(yōu)化每一步是比較簡(jiǎn)單的(上一篇與這一篇分別解決了其中一類)奇昙。但是對(duì)于一般的損失函數(shù),可能不容易優(yōu)化敌完,這就有了梯度提升算法储耐。每一次學(xué)習(xí),都是在擬合損失函數(shù)的負(fù)梯度滨溉, 只要損失函數(shù)梯度存在什湘,就可以優(yōu)化了,因此更具有普適性晦攒。下一篇闽撤,我們將會(huì)仔細(xì)介紹梯度提升樹(shù)算法GBDT,希望大家可以跟我一樣脯颜,認(rèn)識(shí)到模型是一步步演變進(jìn)化的過(guò)程哟旗。