深度學(xué)習(xí)過擬合解決方法

本博客借鑒http://m.blog.csdn.net/taoyanqi8932/article/details/71101699

過擬合即在訓(xùn)練誤差很小,而泛化誤差很大,因?yàn)槟P涂赡苓^于的復(fù)雜,使其”記住”了訓(xùn)練樣本,然而其泛化誤差卻很高,在傳統(tǒng)的機(jī)器學(xué)習(xí)方法中有很大防止過擬合的方法,同樣這些方法很多也適合用于深度學(xué)習(xí)中,同時(shí)深度學(xué)習(xí)中又有一些獨(dú)特的防止過擬合的方法,下面對(duì)其進(jìn)行簡單的梳理.

1. 參數(shù)范數(shù)懲罰

范數(shù)正則化是一種非常普遍的方法,也是最常用的方法,假如優(yōu)化:

minObj(θ)=L(y,f(x))+αG(θ)

其中L為經(jīng)驗(yàn)風(fēng)險(xiǎn),其為在訓(xùn)練樣本上的誤差,而G為對(duì)參數(shù)的懲罰,也叫結(jié)構(gòu)風(fēng)險(xiǎn).α是平衡兩者,如果太大則對(duì)應(yīng)的懲罰越大,如過太小,甚至接近與0,則沒有懲罰.

最常用的范數(shù)懲罰為L1,L2正則化,L1又被成為Lasso:

||w||1=|w1|+|w2|+...

即絕對(duì)值相加,其趨向于是一些參數(shù)為0.可以起到特征選擇的作用.

L2正則化為:

||w||2=w12+w22+...????????????√

其趨向與,使權(quán)重很小.其又成為ridge.

關(guān)于更多可以參考:機(jī)器學(xué)習(xí)中的范數(shù)規(guī)則化之(一)L0叼架、L1與L2范數(shù)

2. 數(shù)據(jù)增強(qiáng)

讓模型泛化的能力更好的最好辦法就是使用更多的訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,但是在實(shí)踐中,我們擁有的數(shù)據(jù)是有限的,解決這一問題可以人為的創(chuàng)造一些假數(shù)據(jù)添加到訓(xùn)練集中.

一個(gè)具體的例子:

在AlexNet中,將256*256圖像隨機(jī)的截取224*224大小,增加了許多的訓(xùn)練樣本,同時(shí)可以對(duì)圖像進(jìn)行左右翻轉(zhuǎn),增加樣本的個(gè)數(shù),實(shí)驗(yàn)的結(jié)果可以可降低1%的誤差.

在神經(jīng)網(wǎng)絡(luò)中輸入噪聲也可以看做是數(shù)據(jù)增強(qiáng)的一種方式.

3. 提前終止

如下圖所示(圖片來源deep learning),當(dāng)隨著模型的能力提升,訓(xùn)練集的誤差會(huì)先減小再增大,這樣可以提前終止算法減緩過擬合現(xiàn)象.關(guān)于算法的具體流程參考deep learning.

這里寫圖片描述

提前終止是一種很常用的緩解過擬合的方法,如在決策樹的先剪枝的算法,提前終止算法,使得樹的深度降低,防止其過擬合.

4. 參數(shù)綁定與參數(shù)共享

在卷積神經(jīng)網(wǎng)絡(luò)CNN中(計(jì)算機(jī)視覺與卷積神經(jīng)網(wǎng)絡(luò) ),卷積層就是其中權(quán)值共享的方式,一個(gè)卷積核通過在圖像上滑動(dòng)從而實(shí)現(xiàn)共享參數(shù),大幅度減少參數(shù)的個(gè)數(shù),用卷積的形式是合理的,因?yàn)閷?duì)于一副貓的圖片來說,右移一個(gè)像素同樣還是貓,其具有局部的特征.這是一種很好的緩解過擬合現(xiàn)象的方法.

同樣在RNN中用到的參數(shù)共享,在其整條時(shí)間鏈上可以進(jìn)行參數(shù)的共享,這樣才使得其能夠被訓(xùn)練.

5. bagging 和其他集成方法

其實(shí)bagging的方法是可以起到正則化的作用,因?yàn)檎齽t化就是要減少泛化誤差,而bagging的方法可以組合多個(gè)模型起到減少泛化誤差的作用.

在深度學(xué)習(xí)中同樣可以使用此方法,但是其會(huì)增加計(jì)算和存儲(chǔ)的成本.

6. Dropout

Dropout提供了一種廉價(jià)的Bagging集成近似,能夠訓(xùn)練和評(píng)估指數(shù)級(jí)數(shù)量的神經(jīng)網(wǎng)絡(luò)辑莫。dropout可以隨機(jī)的讓一部分神經(jīng)元失活,這樣仿佛是bagging的采樣過程,因此可以看做是bagging的廉價(jià)的實(shí)現(xiàn).

但是它們訓(xùn)練不太一樣,因?yàn)閎agging,所有的模型都是獨(dú)立的,而dropout下所有模型的參數(shù)是共享的.

通常可以這樣理解dropout:假設(shè)我們要判別一只貓,有一個(gè)神經(jīng)元說看到有毛就是貓,但是如果我讓這個(gè)神經(jīng)元失活,它還能判斷出來是貓的話,這樣就比較具有泛化的能力,減輕了過擬合的風(fēng)險(xiǎn).

7. 輔助分類節(jié)點(diǎn)(auxiliary classifiers)

在Google Inception V1中,采用了輔助分類節(jié)點(diǎn)的策略,即將中間某一層的輸出用作分類,并按一個(gè)較小的權(quán)重加到最終的分類結(jié)果中,這樣相當(dāng)于做了模型的融合,同時(shí)給網(wǎng)絡(luò)增加了反向傳播的梯度信號(hào),提供了額外的正則化的思想.

8. Batch Normalization

在Google Inception V2中所采用,是一種非常有用的正則化方法,可以讓大型的卷積網(wǎng)絡(luò)訓(xùn)練速度加快很多倍,同事收斂后分類的準(zhǔn)確率也可以大幅度的提高.

BN在訓(xùn)練某層時(shí),會(huì)對(duì)每一個(gè)mini-batch數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化(normalization)處理,使輸出規(guī)范到N(0,1)的正太分布,減少了Internal convariate shift(內(nèi)部神經(jīng)元分布的改變),傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練是,每一層的輸入的分布都在改變,因此訓(xùn)練困難,只能選擇用一個(gè)很小的學(xué)習(xí)速率,但是每一層用了BN后,可以有效的解決這個(gè)問題,學(xué)習(xí)速率可以增大很多倍.

未完待續(xù)…

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末薇搁,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子祟昭,更是在濱河造成了極大的恐慌咧栗,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,451評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件衣洁,死亡現(xiàn)場離奇詭異墓捻,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)坊夫,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,172評(píng)論 3 394
  • 文/潘曉璐 我一進(jìn)店門砖第,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人环凿,你說我怎么就攤上這事梧兼。” “怎么了智听?”我有些...
    開封第一講書人閱讀 164,782評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵羽杰,是天一觀的道長。 經(jīng)常有香客問我到推,道長忽洛,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,709評(píng)論 1 294
  • 正文 為了忘掉前任环肘,我火速辦了婚禮欲虚,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘悔雹。我一直安慰自己复哆,他們只是感情好欣喧,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,733評(píng)論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著梯找,像睡著了一般唆阿。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上锈锤,一...
    開封第一講書人閱讀 51,578評(píng)論 1 305
  • 那天驯鳖,我揣著相機(jī)與錄音,去河邊找鬼久免。 笑死浅辙,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的阎姥。 我是一名探鬼主播记舆,決...
    沈念sama閱讀 40,320評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢(mèng)啊……” “哼呼巴!你這毒婦竟也來了泽腮?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,241評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤衣赶,失蹤者是張志新(化名)和其女友劉穎诊赊,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體府瞄,經(jīng)...
    沈念sama閱讀 45,686評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡碧磅,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,878評(píng)論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了摘能。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,992評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡敲街,死狀恐怖团搞,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情多艇,我是刑警寧澤逻恐,帶...
    沈念sama閱讀 35,715評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站峻黍,受9級(jí)特大地震影響复隆,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜姆涩,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,336評(píng)論 3 330
  • 文/蒙蒙 一挽拂、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧骨饿,春花似錦亏栈、人聲如沸台腥。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,912評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽黎侈。三九已至,卻和暖如春闷游,著一層夾襖步出監(jiān)牢的瞬間峻汉,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,040評(píng)論 1 270
  • 我被黑心中介騙來泰國打工脐往, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留休吠,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,173評(píng)論 3 370
  • 正文 我出身青樓钙勃,卻偏偏與公主長得像蛛碌,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子辖源,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,947評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容