Dropout for deep learning

文章介紹了使用dropout來阻止深度神經(jīng)網(wǎng)絡模型過擬合椒袍,并介紹了一些trick。
样傍,詳細請閱讀Benjio的論文:Dropout-A Simple Way to Prevent Neural Networks from Overfitting捂贿。

1.概述

Dropout主要用來解決深度學習中因大量參數(shù)而導致的過擬合問題渤弛。他的主要思想是:在訓練過程中泛释,隨機扔掉一些神經(jīng)元(包括他們的連接)滤愕,這樣會阻止神經(jīng)元間的過分的共適應。

2.深度學習的過擬合

深度神經(jīng)網(wǎng)絡含有大量非線性隱含層怜校,使得模型表達能力非常強间影。在有限的訓練數(shù)據(jù)下,導致學習了很多樣本噪聲的復雜關系茄茁,而測試樣本中可能并不存在這些復雜關系魂贬。這就導致了過擬合,目前有很多方法用于減小過擬合:

  • 1)增加validation set裙顽,如果在validation set上效果變差付燥,停止訓練;
  • 2)weight penalties愈犹, 比如L1和L2正則化限制键科;
  • 3)soft weight sharing;

在計算能力無限大的情況下漩怎,最好的“正則化”方法是根據(jù)所有可能的設置(根據(jù)訓練數(shù)據(jù)得到的后驗概率設置)設定參數(shù)勋颖,之后平均化這些預測值【Ensemble的方法】。但是勋锤,訓練不同結構的深度神經(jīng)網(wǎng)絡是非常難的饭玲,而且計算量非常大、需要非常大的訓練集叁执。

3.dropout

dropout主要解決以上所說的問題咱枉,dropout的意思是drop out 神經(jīng)網(wǎng)絡中的一些神經(jīng)元(隱含層和可見層)。drop神經(jīng)元徒恋,指隨機的從網(wǎng)絡中移除蚕断,同時包括該神經(jīng)元的輸入和輸出,如下圖所示入挣。

dropout.png

drop的神經(jīng)元是隨機的亿乳,且概率獨立,概率p可以通過交叉驗證來得到径筏,也可以簡單的設置為0.5葛假;在分類問題中,使用dropout比傳統(tǒng)的正則化方法滋恬,泛化誤差都有顯著的減小聊训。
論文中提到了很多實驗結果。其中恢氯,在Street View House Numbers例子中带斑,使用卷積神經(jīng)網(wǎng)絡鼓寺,提到:僅對MLP層做drop out的效果沒有對所有層均做drop out效果好,此外勋磕,還提到了使用max-out效果會更加提升妈候。但是,作者提到了這種提升并不顯著(卷積層是否使用dropout)挂滓,這可能是因為卷積神經(jīng)網(wǎng)絡本身參數(shù)就少的原因苦银。然而,對于全連接層使用dropout還是能夠很好的阻止噪聲的干擾從而阻止過擬合赶站。

他們做了很多實驗幔虏,結果繪圖如下:

dropout_result.jpg

4. Appendix

在文章Appendix中,作者給了A Practical Guide for Training Dropout Networks贝椿。

  • Network Size:
    采用dropout后想括,隱含層節(jié)點數(shù)n要按照n/p增加;
  • Learning Rate and Momentum:
    因為dropout在梯度下降中引入了大量的噪聲導致梯度相互抑制团秽,因此學習速率要增加10-100倍主胧。另外一個減少噪聲的方法是用momentum叭首,momentum對于標準網(wǎng)絡一般采用0.9习勤,對于dropout網(wǎng)絡一般是0.95-0.99。兩個方法可以同時采用焙格。
  • Max-norm Regularization:
    防止學習過快導致網(wǎng)絡增長太大图毕,一般給隱含層權重的norm一個上限c,c一般取值3-4眷唉。
  • Dropout Rate:
    一般取值0.5-0.8之間予颤。drop比例p越小,要求隱含層n越大冬阳,訓練也會越慢且可能欠擬合蛤虐。
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市肝陪,隨后出現(xiàn)的幾起案子驳庭,更是在濱河造成了極大的恐慌,老刑警劉巖氯窍,帶你破解...
    沈念sama閱讀 206,482評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件饲常,死亡現(xiàn)場離奇詭異,居然都是意外死亡狼讨,警方通過查閱死者的電腦和手機贝淤,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,377評論 2 382
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來政供,“玉大人播聪,你說我怎么就攤上這事朽基。” “怎么了犬耻?”我有些...
    開封第一講書人閱讀 152,762評論 0 342
  • 文/不壞的土叔 我叫張陵踩晶,是天一觀的道長。 經(jīng)常有香客問我枕磁,道長渡蜻,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 55,273評論 1 279
  • 正文 為了忘掉前任计济,我火速辦了婚禮茸苇,結果婚禮上,老公的妹妹穿的比我還像新娘沦寂。我一直安慰自己学密,他們只是感情好,可當我...
    茶點故事閱讀 64,289評論 5 373
  • 文/花漫 我一把揭開白布传藏。 她就那樣靜靜地躺著腻暮,像睡著了一般。 火紅的嫁衣襯著肌膚如雪毯侦。 梳的紋絲不亂的頭發(fā)上哭靖,一...
    開封第一講書人閱讀 49,046評論 1 285
  • 那天,我揣著相機與錄音侈离,去河邊找鬼试幽。 笑死,一個胖子當著我的面吹牛卦碾,可吹牛的內容都是我干的铺坞。 我是一名探鬼主播,決...
    沈念sama閱讀 38,351評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼洲胖,長吁一口氣:“原來是場噩夢啊……” “哼济榨!你這毒婦竟也來了?” 一聲冷哼從身側響起绿映,我...
    開封第一講書人閱讀 36,988評論 0 259
  • 序言:老撾萬榮一對情侶失蹤擒滑,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后绘梦,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體橘忱,經(jīng)...
    沈念sama閱讀 43,476評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 35,948評論 2 324
  • 正文 我和宋清朗相戀三年卸奉,在試婚紗的時候發(fā)現(xiàn)自己被綠了钝诚。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,064評論 1 333
  • 序言:一個原本活蹦亂跳的男人離奇死亡榄棵,死狀恐怖凝颇,靈堂內的尸體忽然破棺而出潘拱,到底是詐尸還是另有隱情,我是刑警寧澤拧略,帶...
    沈念sama閱讀 33,712評論 4 323
  • 正文 年R本政府宣布芦岂,位于F島的核電站,受9級特大地震影響垫蛆,放射性物質發(fā)生泄漏禽最。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,261評論 3 307
  • 文/蒙蒙 一袱饭、第九天 我趴在偏房一處隱蔽的房頂上張望川无。 院中可真熱鬧,春花似錦虑乖、人聲如沸懦趋。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,264評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽仅叫。三九已至,卻和暖如春糙捺,著一層夾襖步出監(jiān)牢的瞬間诫咱,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,486評論 1 262
  • 我被黑心中介騙來泰國打工继找, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留遂跟,地道東北人逃沿。 一個月前我還...
    沈念sama閱讀 45,511評論 2 354
  • 正文 我出身青樓婴渡,卻偏偏與公主長得像,于是被迫代替她去往敵國和親凯亮。 傳聞我的和親對象是個殘疾皇子边臼,可洞房花燭夜當晚...
    茶點故事閱讀 42,802評論 2 345

推薦閱讀更多精彩內容

  • 大家好,今天我要講的內容是在深度學習的卷積神經(jīng)網(wǎng)絡中假消,如何減弱過擬合問題的相關研究柠并,最近剛好在修改論文,就把相關的...
    yhlleo閱讀 1,996評論 0 10
  • 第二個Topic講深度學習富拗,承接前面的《淺談機器學習基礎》臼予。 深度學習簡介 前面也提到過,機器學習的本質就是尋找最...
    我偏笑_NSNirvana閱讀 15,578評論 7 49
  • 最近在享受懷孕的過程啃沪,以前覺得懷孕很好粘拾,千方百計的想要懷孕,覺得懷孕很好创千,每天想著缰雇、希望著入偷、掛念著。就這樣懷孕...
    嬌鵬閱讀 201評論 0 0
  • 我有一個透明玻璃瓶子械哟,里面插了幾只綠蘿疏之,它……很綠。
    玻璃瓶中的綠蘿閱讀 201評論 0 0
  • 微信朋友圈就像一個魔法盒子暇咆,讓你迫不及待地想打開看看里面剛剛發(fā)了什么锋爪。其實看的多了,朋友圈的信息歸納起來大概...
    段老師講作文閱讀 285評論 1 0