8種常見(jiàn)機(jī)器學(xué)習(xí)算法比較

簡(jiǎn)介

機(jī)器學(xué)習(xí)算法太多了,分類(lèi)碗旅、回歸渡处、聚類(lèi)、推薦祟辟、圖像識(shí)別領(lǐng)域等等医瘫,要想找到一個(gè)合適算法真的不容易,所以在實(shí)際應(yīng)用中旧困,我們一般都是采用啟發(fā)式學(xué)習(xí)方式來(lái)實(shí)驗(yàn)醇份。通常最開(kāi)始我們都會(huì)選擇大家普遍認(rèn)同的算法,諸如SVM吼具,GBDT僚纷,Adaboost,現(xiàn)在深度學(xué)習(xí)很火熱拗盒,神經(jīng)網(wǎng)絡(luò)也是一個(gè)不錯(cuò)的選擇畔濒。假如你在乎精度(accuracy)的話,最好的方法就是通過(guò)交叉驗(yàn)證(cross-validation)對(duì)各個(gè)算法一個(gè)個(gè)地進(jìn)行測(cè)試锣咒,進(jìn)行比較侵状,然后調(diào)整參數(shù)確保每個(gè)算法達(dá)到最優(yōu)解,最后選擇最好的一個(gè)毅整。但是如果你只是在尋找一個(gè)“足夠好”的算法來(lái)解決你的問(wèn)題趣兄,或者這里有些技巧可以參考,下面來(lái)分析下各個(gè)算法的優(yōu)缺點(diǎn)悼嫉,基于算法的優(yōu)缺點(diǎn)艇潭,更易于我們?nèi)ミx擇它。

偏差&方差

在統(tǒng)計(jì)學(xué)中戏蔑,一個(gè)模型好壞蹋凝,是根據(jù)偏差和方差來(lái)衡量的,所以我們先來(lái)普及一下偏差和方差:

偏差:描述的是預(yù)測(cè)值(估計(jì)值)的期望E’與真實(shí)值Y之間的差距总棵。偏差越大鳍寂,越偏離真實(shí)數(shù)據(jù)。

方差:描述的是預(yù)測(cè)值P的變化范圍情龄,離散程度迄汛,是預(yù)測(cè)值的方差捍壤,也就是離其期望值E的距離。方差越大鞍爱,數(shù)據(jù)的分布越分散鹃觉。

模型的真實(shí)誤差是兩者之和,如下圖:

如果是小訓(xùn)練集睹逃,高偏差/低方差的分類(lèi)器(例如盗扇,樸素貝葉斯NB)要比低偏差/高方差大分類(lèi)的優(yōu)勢(shì)大(例如,KNN)沉填,因?yàn)楹笳邥?huì)過(guò)擬合疗隶。但是,隨著你訓(xùn)練集的增長(zhǎng)拜轨,模型對(duì)于原數(shù)據(jù)的預(yù)測(cè)能力就越好抽减,偏差就會(huì)降低,此時(shí)低偏差/高方差分類(lèi)器就會(huì)漸漸的表現(xiàn)其優(yōu)勢(shì)(因?yàn)樗鼈冇休^低的漸近誤差)橄碾,此時(shí)高偏差分類(lèi)器此時(shí)已經(jīng)不足以提供準(zhǔn)確的模型了卵沉。

當(dāng)然,你也可以認(rèn)為這是生成模型(NB)與判別模型(KNN)的一個(gè)區(qū)別法牲。

為什么說(shuō)樸素貝葉斯是高偏差低方差?

以下內(nèi)容引自知乎:

首先史汗,假設(shè)你知道訓(xùn)練集和測(cè)試集的關(guān)系。簡(jiǎn)單來(lái)講是我們要在訓(xùn)練集上學(xué)習(xí)一個(gè)模型拒垃,然后拿到測(cè)試集去用停撞,效果好不好要根據(jù)測(cè)試集的錯(cuò)誤率來(lái)衡量。但很多時(shí)候悼瓮,我們只能假設(shè)測(cè)試集和訓(xùn)練集的是符合同一個(gè)數(shù)據(jù)分布的戈毒,但卻拿不到真正的測(cè)試數(shù)據(jù)。這時(shí)候怎么在只看到訓(xùn)練錯(cuò)誤率的情況下横堡,去衡量測(cè)試錯(cuò)誤率呢埋市?

由于訓(xùn)練樣本很少(至少不足夠多),所以通過(guò)訓(xùn)練集得到的模型命贴,總不是真正正確的道宅。(就算在訓(xùn)練集上正確率100%,也不能說(shuō)明它刻畫(huà)了真實(shí)的數(shù)據(jù)分布胸蛛,要知道刻畫(huà)真實(shí)的數(shù)據(jù)分布才是我們的目的污茵,而不是只刻畫(huà)訓(xùn)練集的有限的數(shù)據(jù)點(diǎn))。而且葬项,實(shí)際中泞当,訓(xùn)練樣本往往還有一定的噪音誤差,所以如果太追求在訓(xùn)練集上的完美而采用一個(gè)很復(fù)雜的模型玷室,會(huì)使得模型把訓(xùn)練集里面的誤差都當(dāng)成了真實(shí)的數(shù)據(jù)分布特征零蓉,從而得到錯(cuò)誤的數(shù)據(jù)分布估計(jì)笤受。這樣的話穷缤,到了真正的測(cè)試集上就錯(cuò)的一塌糊涂了(這種現(xiàn)象叫過(guò)擬合)敌蜂。但是也不能用太簡(jiǎn)單的模型,否則在數(shù)據(jù)分布比較復(fù)雜的時(shí)候津肛,模型就不足以刻畫(huà)數(shù)據(jù)分布了(體現(xiàn)為連在訓(xùn)練集上的錯(cuò)誤率都很高章喉,這種現(xiàn)象較欠擬合)。過(guò)擬合表明采用的模型比真實(shí)的數(shù)據(jù)分布更復(fù)雜身坐,而欠擬合表示采用的模型比真實(shí)的數(shù)據(jù)分布要簡(jiǎn)單秸脱。

在統(tǒng)計(jì)學(xué)習(xí)框架下,大家刻畫(huà)模型復(fù)雜度的時(shí)候部蛇,有這么個(gè)觀點(diǎn)摊唇,認(rèn)為Error = Bias + Variance。這里的Error大概可以理解為模型的預(yù)測(cè)錯(cuò)誤率涯鲁,是有兩部分組成的巷查,一部分是由于模型太簡(jiǎn)單而帶來(lái)的估計(jì)不準(zhǔn)確的部分(Bias),另一部分是由于模型太復(fù)雜而帶來(lái)的更大的變化空間和不確定性(Variance)抹腿。

所以岛请,這樣就容易分析樸素貝葉斯了。它簡(jiǎn)單的假設(shè)了各個(gè)數(shù)據(jù)之間是無(wú)關(guān)的警绩,是一個(gè)被嚴(yán)重簡(jiǎn)化了的模型崇败。所以,對(duì)于這樣一個(gè)簡(jiǎn)單模型肩祥,大部分場(chǎng)合都會(huì)Bias部分大于Variance部分后室,也就是說(shuō)高偏差而低方差。

在實(shí)際中混狠,為了讓Error盡量小岸霹,我們?cè)谶x擇模型的時(shí)候需要平衡Bias和Variance所占的比例,也就是平衡over-fitting和under-fitting檀蹋。

偏差和方差與模型復(fù)雜度的關(guān)系使用下圖更加明了:

當(dāng)模型復(fù)雜度上升的時(shí)候松申,偏差會(huì)逐漸變小,而方差會(huì)逐漸變大俯逾。

常見(jiàn)算法優(yōu)缺點(diǎn)

1.樸素貝葉斯

樸素貝葉斯屬于生成式模型(關(guān)于生成模型和判別式模型贸桶,主要還是在于是否是要求聯(lián)合分布),非常簡(jiǎn)單桌肴,你只是做了一堆計(jì)數(shù)皇筛。如果注有條件獨(dú)立性假設(shè)(一個(gè)比較嚴(yán)格的條件),樸素貝葉斯分類(lèi)器的收斂速度將快于判別模型坠七,如邏輯回歸水醋,所以你只需要較少的訓(xùn)練數(shù)據(jù)即可旗笔。即使NB條件獨(dú)立假設(shè)不成立,NB分類(lèi)器在實(shí)踐中仍然表現(xiàn)的很出色拄踪。它的主要缺點(diǎn)是它不能學(xué)習(xí)特征間的相互作用蝇恶,用mRMR中R來(lái)講,就是特征冗余惶桐。引用一個(gè)比較經(jīng)典的例子撮弧,比如,雖然你喜歡Brad Pitt和Tom Cruise的電影姚糊,但是它不能學(xué)習(xí)出你不喜歡他們?cè)谝黄鹧莸碾娪啊?/p>

優(yōu)點(diǎn):

樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論贿衍,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類(lèi)效率救恨。

對(duì)小規(guī)模的數(shù)據(jù)表現(xiàn)很好贸辈,能個(gè)處理多分類(lèi)任務(wù),適合增量式訓(xùn)練肠槽;

對(duì)缺失數(shù)據(jù)不太敏感擎淤,算法也比較簡(jiǎn)單,常用于文本分類(lèi)署浩。

缺點(diǎn):

需要計(jì)算先驗(yàn)概率揉燃;

分類(lèi)決策存在錯(cuò)誤率;

對(duì)輸入數(shù)據(jù)的表達(dá)形式很敏感筋栋。

2.Logistic Regression(邏輯回歸)

屬于判別式模型炊汤,有很多正則化模型的方法(L0, L1弊攘,L2抢腐,etc),而且你不必像在用樸素貝葉斯那樣擔(dān)心你的特征是否相關(guān)襟交。與決策樹(shù)與SVM機(jī)相比迈倍,你還會(huì)得到一個(gè)不錯(cuò)的概率解釋?zhuān)闵踔量梢暂p松地利用新數(shù)據(jù)來(lái)更新模型(使用在線梯度下降算法,online gradient descent)捣域。如果你需要一個(gè)概率架構(gòu)(比如啼染,簡(jiǎn)單地調(diào)節(jié)分類(lèi)閾值,指明不確定性焕梅,或者是要獲得置信區(qū)間)迹鹅,或者你希望以后將更多的訓(xùn)練數(shù)據(jù)快速整合到模型中去,那么使用它吧贞言。

Sigmoid函數(shù)

優(yōu)點(diǎn)

實(shí)現(xiàn)簡(jiǎn)單斜棚,廣泛的應(yīng)用于工業(yè)問(wèn)題上;

分類(lèi)時(shí)計(jì)算量非常小,速度很快弟蚀,存儲(chǔ)資源低蚤霞;

便利的觀測(cè)樣本概率分?jǐn)?shù);

對(duì)邏輯回歸而言义钉,多重共線性并不是問(wèn)題昧绣,它可以結(jié)合L2正則化來(lái)解決該問(wèn)題;

缺點(diǎn)

當(dāng)特征空間很大時(shí)断医,邏輯回歸的性能不是很好滞乙;

容易欠擬合奏纪,一般準(zhǔn)確度不太高

不能很好地處理大量多類(lèi)特征或變量鉴嗤;

只能處理兩分類(lèi)問(wèn)題(在此基礎(chǔ)上衍生出來(lái)的softmax可以用于多分類(lèi)),且必須線性可分序调;

對(duì)于非線性特征醉锅,需要進(jìn)行轉(zhuǎn)換;

3.線性回歸

線性回歸是用于回歸的发绢,而不像Logistic回歸是用于分類(lèi)硬耍,其基本思想是用梯度下降法對(duì)最小二乘法形式的誤差函數(shù)進(jìn)行優(yōu)化,當(dāng)然也可以用normal equation直接求得參數(shù)的解边酒,結(jié)果為:

而在LWLR(局部加權(quán)線性回歸)中经柴,參數(shù)的計(jì)算表達(dá)式為:

由此可見(jiàn)LWLR與LR不同,LWLR是一個(gè)非參數(shù)模型墩朦,因?yàn)槊看芜M(jìn)行回歸計(jì)算都要遍歷訓(xùn)練樣本至少一次坯认。

優(yōu)點(diǎn): 實(shí)現(xiàn)簡(jiǎn)單,計(jì)算簡(jiǎn)單氓涣;

缺點(diǎn): 不能擬合非線性數(shù)據(jù).

4.最近領(lǐng)算法——KNN

KNN即最近鄰算法牛哺,其主要過(guò)程為:

1. 計(jì)算訓(xùn)練樣本和測(cè)試樣本中每個(gè)樣本點(diǎn)的距離(常見(jiàn)的距離度量有歐式距離,馬氏距離等)劳吠;2. 對(duì)上面所有的距離值進(jìn)行排序引润;3. 選前k個(gè)最小距離的樣本;4. 根據(jù)這k個(gè)樣本的標(biāo)簽進(jìn)行投票痒玩,得到最后的分類(lèi)類(lèi)別淳附;

如何選擇一個(gè)最佳的K值,這取決于數(shù)據(jù)蠢古。一般情況下奴曙,在分類(lèi)時(shí)較大的K值能夠減小噪聲的影響。但會(huì)使類(lèi)別之間的界限變得模糊便瑟。一個(gè)較好的K值可通過(guò)各種啟發(fā)式技術(shù)來(lái)獲取缆毁,比如,交叉驗(yàn)證到涂。另外噪聲和非相關(guān)性特征向量的存在會(huì)使K近鄰算法的準(zhǔn)確性減小脊框。

近鄰算法具有較強(qiáng)的一致性結(jié)果颁督。隨著數(shù)據(jù)趨于無(wú)限,算法保證錯(cuò)誤率不會(huì)超過(guò)貝葉斯算法錯(cuò)誤率的兩倍浇雹。對(duì)于一些好的K值沉御,K近鄰保證錯(cuò)誤率不會(huì)超過(guò)貝葉斯理論誤差率。

KNN算法的優(yōu)點(diǎn)

理論成熟昭灵,思想簡(jiǎn)單吠裆,既可以用來(lái)做分類(lèi)也可以用來(lái)做回歸;

可用于非線性分類(lèi)烂完;

訓(xùn)練時(shí)間復(fù)雜度為O(n)试疙;

對(duì)數(shù)據(jù)沒(méi)有假設(shè),準(zhǔn)確度高抠蚣,對(duì)outlier不敏感祝旷;

缺點(diǎn)

計(jì)算量大;

樣本不平衡問(wèn)題(即有些類(lèi)別的樣本數(shù)量很多嘶窄,而其它樣本的數(shù)量很少)怀跛;

需要大量的內(nèi)存;

5.決策樹(shù)

易于解釋柄冲。它可以毫無(wú)壓力地處理特征間的交互關(guān)系并且是非參數(shù)化的吻谋,因此你不必?fù)?dān)心異常值或者數(shù)據(jù)是否線性可分(舉個(gè)例子,決策樹(shù)能輕松處理好類(lèi)別A在某個(gè)特征維度x的末端现横,類(lèi)別B在中間漓拾,然后類(lèi)別A又出現(xiàn)在特征維度x前端的情況)。它的缺點(diǎn)之一就是不支持在線學(xué)習(xí)长赞,于是在新樣本到來(lái)后晦攒,決策樹(shù)需要全部重建。另一個(gè)缺點(diǎn)就是容易出現(xiàn)過(guò)擬合得哆,但這也就是諸如隨機(jī)森林RF(或提升樹(shù)boosted tree)之類(lèi)的集成方法的切入點(diǎn)脯颜。另外,隨機(jī)森林經(jīng)常是很多分類(lèi)問(wèn)題的贏家(通常比支持向量機(jī)好上那么一丁點(diǎn))贩据,它訓(xùn)練快速并且可調(diào)栋操,同時(shí)你無(wú)須擔(dān)心要像支持向量機(jī)那樣調(diào)一大堆參數(shù),所以在以前都一直很受歡迎饱亮。

決策樹(shù)中很重要的一點(diǎn)就是選擇一個(gè)屬性進(jìn)行分枝矾芙,因此要注意一下信息增益的計(jì)算公式,并深入理解它近上。

信息熵的計(jì)算公式如下:

其中的n代表有n個(gè)分類(lèi)類(lèi)別(比如假設(shè)是2類(lèi)問(wèn)題剔宪,那么n=2)。分別計(jì)算這2類(lèi)樣本在總樣本中出現(xiàn)的概率p1和p2,這樣就可以計(jì)算出未選中屬性分枝前的信息熵葱绒。

現(xiàn)在選中一個(gè)屬性xixi用來(lái)進(jìn)行分枝感帅,此時(shí)分枝規(guī)則是:如果xi=vxi=v的話,將樣本分到樹(shù)的一個(gè)分支地淀;如果不相等則進(jìn)入另一個(gè)分支失球。很顯然,分支中的樣本很有可能包括2個(gè)類(lèi)別帮毁,分別計(jì)算這2個(gè)分支的熵H1和H2,計(jì)算出分枝后的總信息熵H’ =p1H1+p2?H2,則此時(shí)的信息增益ΔH = H - H’实苞。以信息增益為原則,把所有的屬性都測(cè)試一邊烈疚,選擇一個(gè)使增益最大的屬性作為本次分枝屬性黔牵。

決策樹(shù)自身的優(yōu)點(diǎn):

計(jì)算簡(jiǎn)單,易于理解胞得,可解釋性強(qiáng)荧止;

比較適合處理有缺失屬性的樣本;

能夠處理不相關(guān)的特征阶剑;

在相對(duì)短的時(shí)間內(nèi)能夠?qū)Υ笮蛿?shù)據(jù)源做出可行且效果良好的結(jié)果。

缺點(diǎn)

容易發(fā)生過(guò)擬合(隨機(jī)森林可以很大程度上減少過(guò)擬合)危号;

忽略了數(shù)據(jù)之間的相關(guān)性牧愁;

對(duì)于那些各類(lèi)別樣本數(shù)量不一致的數(shù)據(jù),在決策樹(shù)當(dāng)中,信息增益的結(jié)果偏向于那些具有更多數(shù)值的特征(只要是使用了信息增益外莲,都有這個(gè)缺點(diǎn)猪半,如RF)。

5.1 Adaboosting

Adaboost是一種加和模型偷线,每個(gè)模型都是基于上一次模型的錯(cuò)誤率來(lái)建立的磨确,過(guò)分關(guān)注分錯(cuò)的樣本,而對(duì)正確分類(lèi)的樣本減少關(guān)注度声邦,逐次迭代之后乏奥,可以得到一個(gè)相對(duì)較好的模型。是一種典型的boosting算法亥曹。下面是總結(jié)下它的優(yōu)缺點(diǎn)邓了。

優(yōu)點(diǎn)

adaboost是一種有很高精度的分類(lèi)器。

可以使用各種方法構(gòu)建子分類(lèi)器媳瞪,Adaboost算法提供的是框架骗炉。

當(dāng)使用簡(jiǎn)單分類(lèi)器時(shí),計(jì)算出的結(jié)果是可以理解的蛇受,并且弱分類(lèi)器的構(gòu)造極其簡(jiǎn)單句葵。

簡(jiǎn)單,不用做特征篩選。

不容易發(fā)生overfitting乍丈。

關(guān)于隨機(jī)森林和GBDT等組合算法熊响,參考這篇文章:機(jī)器學(xué)習(xí)-組合算法總結(jié)

缺點(diǎn):對(duì)outlier比較敏感

6.SVM支持向量機(jī)

高準(zhǔn)確率,為避免過(guò)擬合提供了很好的理論保證诗赌,而且就算數(shù)據(jù)在原特征空間線性不可分汗茄,只要給個(gè)合適的核函數(shù),它就能運(yùn)行得很好铭若。在動(dòng)輒超高維的文本分類(lèi)問(wèn)題中特別受歡迎洪碳。可惜內(nèi)存消耗大叼屠,難以解釋?zhuān)\(yùn)行和調(diào)參也有些煩人瞳腌,而隨機(jī)森林卻剛好避開(kāi)了這些缺點(diǎn),比較實(shí)用镜雨。

優(yōu)點(diǎn)

可以解決高維問(wèn)題嫂侍,即大型特征空間;

能夠處理非線性特征的相互作用荚坞;

無(wú)需依賴(lài)整個(gè)數(shù)據(jù)挑宠;

可以提高泛化能力;

缺點(diǎn)

當(dāng)觀測(cè)樣本很多時(shí)颓影,效率并不是很高各淀;

對(duì)非線性問(wèn)題沒(méi)有通用解決方案,有時(shí)候很難找到一個(gè)合適的核函數(shù);

對(duì)缺失數(shù)據(jù)敏感;

對(duì)于核的選擇也是有技巧的(libsvm中自帶了四種核函數(shù):線性核力惯、多項(xiàng)式核、RBF以及sigmoid核):

第一奴璃,如果樣本數(shù)量小于特征數(shù),那么就沒(méi)必要選擇非線性核城豁,簡(jiǎn)單的使用線性核就可以了苟穆;

第二,如果樣本數(shù)量大于特征數(shù)目钮蛛,這時(shí)可以使用非線性核鞭缭,將樣本映射到更高維度,一般可以得到更好的結(jié)果魏颓;

第三岭辣,如果樣本數(shù)目和特征數(shù)目相等,該情況可以使用非線性核甸饱,原理和第二種一樣沦童。

對(duì)于第一種情況仑濒,也可以先對(duì)數(shù)據(jù)進(jìn)行降維,然后使用非線性核偷遗,這也是一種方法墩瞳。

7. 人工神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)

人工神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)

分類(lèi)的準(zhǔn)確度高;

并行分布處理能力強(qiáng),分布存儲(chǔ)及學(xué)習(xí)能力強(qiáng)氏豌,

對(duì)噪聲神經(jīng)有較強(qiáng)的魯棒性和容錯(cuò)能力喉酌,能充分逼近復(fù)雜的非線性關(guān)系;

具備聯(lián)想記憶的功能泵喘。

人工神經(jīng)網(wǎng)絡(luò)的缺點(diǎn)

神經(jīng)網(wǎng)絡(luò)需要大量的參數(shù)泪电,如網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)、權(quán)值和閾值的初始值纪铺;

不能觀察之間的學(xué)習(xí)過(guò)程相速,輸出結(jié)果難以解釋?zhuān)瑫?huì)影響到結(jié)果的可信度和可接受程度;

學(xué)習(xí)時(shí)間過(guò)長(zhǎng),甚至可能達(dá)不到學(xué)習(xí)的目的鲜锚。

8突诬、K-Means聚類(lèi)

之前寫(xiě)過(guò)一篇關(guān)于K-Means聚類(lèi)的文章,博文鏈接:機(jī)器學(xué)習(xí)算法-K-means聚類(lèi)芜繁。關(guān)于K-Means的推導(dǎo)旺隙,里面有著很強(qiáng)大的EM思想。

優(yōu)點(diǎn)

算法簡(jiǎn)單浆洗,容易實(shí)現(xiàn) 催束;

對(duì)處理大數(shù)據(jù)集,該算法是相對(duì)可伸縮的和高效率的伏社,因?yàn)樗膹?fù)雜度大約是O(nkt),其中n是所有對(duì)象的數(shù)目塔淤,k是簇的數(shù)目,t是迭代的次數(shù)摘昌。通常k<

算法嘗試找出使平方誤差函數(shù)值最小的k個(gè)劃分。當(dāng)簇是密集的高蜂、球狀或團(tuán)狀的聪黎,且簇與簇之間區(qū)別明顯時(shí),聚類(lèi)效果較好备恤。

缺點(diǎn)

對(duì)數(shù)據(jù)類(lèi)型要求較高稿饰,適合數(shù)值型數(shù)據(jù);

可能收斂到局部最小值露泊,在大規(guī)模數(shù)據(jù)上收斂較慢

K值比較難以選群砹;

對(duì)初值的簇心值敏感惭笑,對(duì)于不同的初始值侣姆,可能會(huì)導(dǎo)致不同的聚類(lèi)結(jié)果生真;

不適合于發(fā)現(xiàn)非凸面形狀的簇,或者大小差別很大的簇捺宗。

對(duì)于”噪聲”和孤立點(diǎn)數(shù)據(jù)敏感柱蟀,少量的該類(lèi)數(shù)據(jù)能夠?qū)ζ骄诞a(chǎn)生極大影響。

算法選擇參考

之前翻譯過(guò)一些國(guó)外的文章蚜厉,有一篇文章中給出了一個(gè)簡(jiǎn)單的算法選擇技巧:

1. 首當(dāng)其沖應(yīng)該選擇的就是邏輯回歸长已,如果它的效果不怎么樣,那么可以將它的結(jié)果作為基準(zhǔn)來(lái)參考昼牛,在基礎(chǔ)上與其他算法進(jìn)行比較术瓮;

2. 然后試試決策樹(shù)(隨機(jī)森林)看看是否可以大幅度提升你的模型性能。即便最后你并沒(méi)有把它當(dāng)做為最終模型匾嘱,你也可以使用隨機(jī)森林來(lái)移除噪聲變量斤斧,做特征選擇;

3. 如果特征的數(shù)量和觀測(cè)樣本特別多霎烙,那么當(dāng)資源和時(shí)間充足時(shí)(這個(gè)前提很重要)撬讽,使用SVM不失為一種選擇。

通常情況下:【GBDT>=SVM>=RF>=Adaboost>=Other…】悬垃,現(xiàn)在深度學(xué)習(xí)很熱門(mén)游昼,很多領(lǐng)域都用到,它是以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的尝蠕,目前我自己也在學(xué)習(xí)烘豌,只是理論知識(shí)不是很厚實(shí),理解的不夠深看彼,這里就不做介紹了廊佩。

算法固然重要,但好的數(shù)據(jù)卻要優(yōu)于好的算法靖榕,設(shè)計(jì)優(yōu)良特征是大有裨益的标锄。假如你有一個(gè)超大數(shù)據(jù)集,那么無(wú)論你使用哪種算法可能對(duì)分類(lèi)性能都沒(méi)太大影響(此時(shí)就可以根據(jù)速度和易用性來(lái)進(jìn)行抉擇)茁计。

(轉(zhuǎn))?http://blog.csdn.net/u014365862/article/details/52937983

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末料皇,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子星压,更是在濱河造成了極大的恐慌践剂,老刑警劉巖,帶你破解...
    沈念sama閱讀 217,734評(píng)論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件娜膘,死亡現(xiàn)場(chǎng)離奇詭異逊脯,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)劲绪,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,931評(píng)論 3 394
  • 文/潘曉璐 我一進(jìn)店門(mén)男窟,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)盆赤,“玉大人,你說(shuō)我怎么就攤上這事歉眷∥” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 164,133評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵汗捡,是天一觀的道長(zhǎng)淑际。 經(jīng)常有香客問(wèn)我,道長(zhǎng)扇住,這世上最難降的妖魔是什么春缕? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,532評(píng)論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮艘蹋,結(jié)果婚禮上锄贼,老公的妹妹穿的比我還像新娘。我一直安慰自己女阀,他們只是感情好宅荤,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,585評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著浸策,像睡著了一般冯键。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上庸汗,一...
    開(kāi)封第一講書(shū)人閱讀 51,462評(píng)論 1 302
  • 那天惫确,我揣著相機(jī)與錄音,去河邊找鬼蚯舱。 笑死改化,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的枉昏。 我是一名探鬼主播所袁,決...
    沈念sama閱讀 40,262評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼凶掰!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起蜈亩,我...
    開(kāi)封第一講書(shū)人閱讀 39,153評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤懦窘,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后稚配,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體畅涂,經(jīng)...
    沈念sama閱讀 45,587評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,792評(píng)論 3 336
  • 正文 我和宋清朗相戀三年道川,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了午衰。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片立宜。...
    茶點(diǎn)故事閱讀 39,919評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖臊岸,靈堂內(nèi)的尸體忽然破棺而出橙数,到底是詐尸還是另有隱情,我是刑警寧澤帅戒,帶...
    沈念sama閱讀 35,635評(píng)論 5 345
  • 正文 年R本政府宣布灯帮,位于F島的核電站,受9級(jí)特大地震影響逻住,放射性物質(zhì)發(fā)生泄漏钟哥。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,237評(píng)論 3 329
  • 文/蒙蒙 一瞎访、第九天 我趴在偏房一處隱蔽的房頂上張望腻贰。 院中可真熱鬧,春花似錦扒秸、人聲如沸播演。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,855評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)宾巍。三九已至,卻和暖如春渔伯,著一層夾襖步出監(jiān)牢的瞬間顶霞,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,983評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工锣吼, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留选浑,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,048評(píng)論 3 370
  • 正文 我出身青樓玄叠,卻偏偏與公主長(zhǎng)得像古徒,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子读恃,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,864評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容