LR 與SVM
不同
1.logistic regression適合需要得到一個分類概率的場景骗污,SVM則沒有分類概率
2.LR其實同樣可以使用kernel,但是LR沒有support vector在計算復(fù)雜度上會高出很多沈条。如果樣本量很大并且需要的是一個復(fù)雜模型需忿,那么建議SVM
3. 如果樣本比較少,模型又比較復(fù)雜蜡歹。那么建議svm屋厘,它有一套比較好的解構(gòu)風(fēng)險最小化理論的保障,比如large margin和soft margin
相同
1. 由于hinge loss和entropy loss很接近月而,因此得出來的兩個分類面是非常接近的
2. 都是在兩個loss上做了一個regularization
作者:Jack
鏈接:https://www.zhihu.com/question/21704547/answer/74459964
來源:知乎
著作權(quán)歸作者所有汗洒。商業(yè)轉(zhuǎn)載請聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請注明出處景鼠。
LR 與SVM
在Andrew NG的課里講到過:
1. 如果Feature的數(shù)量很大仲翎,跟樣本數(shù)量差不多痹扇,這時候選用LR或者是Linear Kernel的SVM
2. 如果Feature的數(shù)量比較小铛漓,樣本數(shù)量一般,不算大也不算小鲫构,選用SVM+Gaussian Kernel
3. 如果Feature的數(shù)量比較小浓恶,而樣本數(shù)量很多,需要手工添加一些feature變成第一種情況
仔細(xì)想想结笨,為什么是這樣包晰?
作者:雷軍
鏈接:https://www.zhihu.com/question/21704547/answer/30682505
來源:知乎
著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請聯(lián)系作者獲得授權(quán)炕吸,非商業(yè)轉(zhuǎn)載請注明出處伐憾。
下面內(nèi)容來源:http://www.cnblogs.com/suanec/p/4992887.html
首先,我們來分析下邏輯回歸(Logistic Regression),它是解決工業(yè)規(guī)模問題最流行的算法赫模,盡管與其他技術(shù)相比树肃,其在效率和算法實現(xiàn)的易用性方面并不出眾。
邏輯回歸非常便利并且很有用的一點就是瀑罗,它輸出的結(jié)果并不是一個離散值或者確切的類別胸嘴。相反,你得到的是一個與每個觀測樣本相關(guān)的概率列表斩祭。你可以使用不同的標(biāo)準(zhǔn)和常用的性能指標(biāo)來分析這個概率分?jǐn)?shù)劣像,并得到一個閾值,然后使用最符合你業(yè)務(wù)問題的方式進(jìn)行分類輸出摧玫。在金融行業(yè)耳奕,這種技術(shù)普遍應(yīng)用于記分卡中,對于同一個模型,你可以調(diào)整你的閾值【臨界值】來得到不同的分類結(jié)果屋群。很少有其它算法使用這種分?jǐn)?shù)作為直接結(jié)果时迫。相反,它們的輸出是嚴(yán)謹(jǐn)?shù)闹苯臃诸惤Y(jié)果谓晌。同時掠拳,邏輯回歸在時間和內(nèi)存需求上相當(dāng)高效。它可以應(yīng)用于分布式數(shù)據(jù)纸肉,并且還有在線算法實現(xiàn)溺欧,用較少的資源處理大型數(shù)據(jù)。
除此之外柏肪,邏輯回歸算法對于數(shù)據(jù)中小噪聲的魯棒性很好姐刁,并且不會受到輕微的多重共線性的特別影響。嚴(yán)重的多重共線性則可以使用邏輯回歸結(jié)合L2正則化來解決烦味,不過如果要得到一個簡約模型聂使,L2正則化并不是最好的選擇,因為它建立的模型涵蓋了全部的特征谬俄。
當(dāng)你的特征數(shù)目很大并且還丟失了大部分?jǐn)?shù)據(jù)時柏靶,邏輯回歸就會表現(xiàn)得力不從心。同時溃论,太多的類別變量對邏輯回歸來說也是一個問題屎蜓。邏輯回歸的另一個爭議點是它使用整個數(shù)據(jù)來得到它的概率分?jǐn)?shù)。雖然這并不是一個問題钥勋,但是當(dāng)你嘗試畫一條分離曲線的時候炬转,邏輯回歸可能會認(rèn)為那些位于分?jǐn)?shù)兩端“明顯的”數(shù)據(jù)點不應(yīng)該被關(guān)注。有些人可能認(rèn)為算灸,在理想情況下扼劈,邏輯回歸應(yīng)該依賴這些邊界點。同時菲驴,如果某些特征是非線性的荐吵,那么你必須依靠轉(zhuǎn)換,然而當(dāng)你特征空間的維數(shù)增加時谢翎,這也會變成另一個難題捍靠。所以,對于邏輯回歸森逮,我們根據(jù)討論的內(nèi)容總結(jié)了一些突出的優(yōu)點和缺點榨婆。
Logistic回歸分析的優(yōu)點:
1.適合需要得到一個分類概率的場景
2.實現(xiàn)效率較高
3.對邏輯回歸而言,多重共線性并不是問題褒侧,它可以結(jié)合L2正則化來解決良风;
4.邏輯回歸廣泛的應(yīng)用于工業(yè)問題上
邏輯回歸的缺點:
1.當(dāng)特征空間很大時谊迄,邏輯回歸的性能不是很好;
2.不能很好地處理大量多類特征或變量烟央;
4.對于非線性特征统诺,需要進(jìn)行轉(zhuǎn)換;
5.依賴于全部的數(shù)據(jù)特征疑俭,當(dāng)特征有缺失的時候表現(xiàn)效果不好
決策樹
決策樹固有的特性是它對單向變換或非線性特征并不關(guān)心[這不同于預(yù)測器當(dāng)中的非線性相關(guān)性>粮呢,因為它們簡單地在特征空間中插入矩形[或是(超)長方體],這些形狀可以適應(yīng)任何單調(diào)變換钞艇。當(dāng)決策樹被設(shè)計用來處理預(yù)測器的離散數(shù)據(jù)或是類別時啄寡,任何數(shù)量的分類變量對決策樹來說都不是真正的問題。使用決策樹訓(xùn)練得到的模型相當(dāng)直觀哩照,在業(yè)務(wù)上也非常容易解釋挺物。決策樹并不是以概率分?jǐn)?shù)作為直接結(jié)果,但是你可以使用類概率反過來分配給終端節(jié)點飘弧。這也就讓我們看到了與決策樹相關(guān)的最大問題识藤,即它們屬于高度偏見型模型。你可以在訓(xùn)練集上構(gòu)建決策樹模型次伶,而且其在訓(xùn)練集上的結(jié)果可能優(yōu)于其它算法痴昧,但你的測試集最終會證明它是一個差的預(yù)測器。你必須對樹進(jìn)行剪枝学少,同時結(jié)合交叉驗證才能得到一個沒有過擬合的決策樹模型剪个。
隨機(jī)森林在很大程度上克服了過擬合這一缺陷,其本身并沒有什么特別之處版确,但它卻是決策樹一個非常優(yōu)秀的擴(kuò)展。隨機(jī)森林同時也剝奪了商業(yè)規(guī)則的易解釋性乎折,因為現(xiàn)在你有上千棵這樣的樹绒疗,而且它們使用的多數(shù)投票規(guī)則會使得模型變得更加復(fù)雜。同時骂澄,決策樹變量之間也存在相互作用吓蘑,如果你的大多數(shù)變量之間沒有相互作用關(guān)系或者非常弱,那么會使得結(jié)果非常低效坟冲。此外磨镶,這種設(shè)計也使得它們更不易受多重共線性的影響。
決策樹總結(jié)如下:
決策樹的優(yōu)點:
1.直觀的決策規(guī)則
2.可以處理非線性特征
3.考慮了變量之間的相互作用
決策樹的缺點:
1.訓(xùn)練集上的效果高度優(yōu)于測試集健提,即過擬合[隨機(jī)森林克服了此缺點]
2.沒有將排名分?jǐn)?shù)作為直接結(jié)果
支持向量機(jī)
現(xiàn)在來討論下支持向量機(jī)(SVM, Support Vector Machine)琳猫。支持向量機(jī)的特點是它依靠邊界樣本來建立需要的分離曲線。正如我們 之間看到的那樣私痹,它可以處理非線性決策邊界脐嫂。對邊界的依賴统刮,也使得它們有能力處理缺失數(shù)據(jù)中“明顯的”樣本實例。支持向量機(jī)能夠處理大的特征空間账千,也因此成為文本分析中最受歡迎的算法之一侥蒙,由于文本數(shù)據(jù)幾乎總是產(chǎn)生大量的特征,所以在這種情況下邏輯回歸并不是一個非常好的選擇匀奏。
對于一個行外人來說鞭衩,SVM的結(jié)果并不像決策樹那樣直觀。同時使用非線性核娃善,使得支持向量機(jī)在大型數(shù)據(jù)上的訓(xùn)練非常耗時醋旦。總之:
SVM的優(yōu)點:
1.能夠處理大型特征空間
2.能夠處理非線性特征之間的相互作用
3.無需依賴整個數(shù)據(jù)
SVM的缺點:
1.當(dāng)觀測樣本很多時会放,效率并不是很高
2.有時候很難找到一個合適的核函數(shù)
為此饲齐,我試著編寫一個簡單的工作流,決定應(yīng)該何時選擇這三種算法咧最,流程如下:
首當(dāng)其沖應(yīng)該選擇的就是邏輯回歸捂人,如果它的效果不怎么樣,那么可以將它的結(jié)果作為基準(zhǔn)來參考矢沿;
然后試試決策樹(隨機(jī)森林)是否可以大幅度提升模型性能滥搭。即使你并沒有把它當(dāng)做最終模型,你也可以使用隨機(jī)森林來移除噪聲變量捣鲸;
如果特征的數(shù)量和觀測樣本特別多瑟匆,那么當(dāng)資源和時間充足時,使用SVM不失為一種選擇栽惶。
最后愁溜,大家請記住,在任何時候好的數(shù)據(jù)總要勝過任何一個算法外厂。時常思考下冕象,看看是否可以使用你的領(lǐng)域知識來設(shè)計一個好的特征。在使用創(chuàng)建的特征做實驗時汁蝶,可以嘗試下各種不同的想法渐扮。此外,你還可以嘗試下多種模型的組合掖棉。這些我們將在下回討論墓律,所以,整裝待發(fā)吧幔亥!