12_批量歸一化和殘差網(wǎng)絡(luò)

批量歸一化(BatchNormalization)

對輸入的標(biāo)準(zhǔn)化(淺層模型)

處理后的任意一個特征在數(shù)據(jù)集中所有樣本上的均值為0闸翅、標(biāo)準(zhǔn)差為1。
標(biāo)準(zhǔn)化處理輸入數(shù)據(jù)使各個特征的分布相近

批量歸一化(深度模型)

利用小批量上的均值和標(biāo)準(zhǔn)差喇颁,不斷調(diào)整神經(jīng)網(wǎng)絡(luò)中間輸出损敷,從而使整個神經(jīng)網(wǎng)絡(luò)在各層的中間輸出的數(shù)值更穩(wěn)定欧宜。

1.對全連接層做批量歸一化

位置:全連接層中的仿射變換和激活函數(shù)之間。
全連接:
\boldsymbol{x} = \boldsymbol{W\boldsymbol{u} + \boldsymbol疾渣} \\ output =\phi(\boldsymbol{x})

批量歸一化:
output=\phi(\text{BN}(\boldsymbol{x}))

\boldsymbol{y}^{(i)} = \text{BN}(\boldsymbol{x}^{(i)})

\boldsymbol{\mu}_\mathcal{B} \leftarrow \frac{1}{m}\sum_{i = 1}^{m} \boldsymbol{x}^{(i)},
\boldsymbol{\sigma}_\mathcal{B}^2 \leftarrow \frac{1}{m} \sum_{i=1}^{m}(\boldsymbol{x}^{(i)} - \boldsymbol{\mu}_\mathcal{B})^2,

\hat{\boldsymbol{x}}^{(i)} \leftarrow \frac{\boldsymbol{x}^{(i)} - \boldsymbol{\mu}_\mathcal{B}}{\sqrt{\boldsymbol{\sigma}_\mathcal{B}^2 + \epsilon}},

這?? > 0是個很小的常數(shù)篡诽,保證分母大于0

{\boldsymbol{y}}^{(i)} \leftarrow \boldsymbol{\gamma} \odot \hat{\boldsymbol{x}}^{(i)} + \boldsymbol{\beta}.

引入可學(xué)習(xí)參數(shù):拉伸參數(shù)γ和偏移參數(shù)β。若\boldsymbol{\gamma} = \sqrt{\boldsymbol{\sigma}_\mathcal{B}^2 + \epsilon}\boldsymbol{\beta} = \boldsymbol{\mu}_\mathcal{B}榴捡,批量歸一化無效杈女。

2.對卷積層做批量歸?化

位置:卷積計算之后、應(yīng)?激活函數(shù)之前吊圾。
如果卷積計算輸出多個通道达椰,我們需要對這些通道的輸出分別做批量歸一化,且每個通道都擁有獨(dú)立的拉伸和偏移參數(shù)项乒。
計算:對單通道啰劲,batchsize=m,卷積計算輸出=pxq
對該通道中m×p×q個元素同時做批量歸一化,使用相同的均值和方差。

3.預(yù)測時的批量歸?化

訓(xùn)練:以batch為單位,對每個batch計算均值和方差檀何。
預(yù)測:用移動平均估算整個訓(xùn)練數(shù)據(jù)集的樣本均值和方差蝇裤。

從零實(shí)現(xiàn)

殘差網(wǎng)絡(luò)(ResNet)

深度學(xué)習(xí)的問題:深度CNN網(wǎng)絡(luò)達(dá)到一定深度后再一味地增加層數(shù)并不能帶來進(jìn)一步地分類性能提高,反而會招致網(wǎng)絡(luò)收斂變得更慢频鉴,準(zhǔn)確率也變得更差栓辜。

殘差塊(Residual Block)

恒等映射:
左邊:f(x)=x
右邊:f(x)-x=0 (易于捕捉恒等映射的細(xì)微波動)

Image Name

在殘差塊中,輸?可通過跨層的數(shù)據(jù)線路更快 地向前傳播垛孔。

ResNet模型

卷積(64,7x7,3)
批量一體化
最大池化(3x3,2)

殘差塊x4 (通過步幅為2的殘差塊在每個模塊之間減小高和寬)

全局平均池化

全連接

稠密連接網(wǎng)絡(luò)(DenseNet)

Image Name

主要構(gòu)建模塊:

稠密塊(dense block): 定義了輸入和輸出是如何連結(jié)的藕甩。
過渡層(transition layer):用來控制通道數(shù),使之不過大周荐。

稠密塊

過渡層

1\times1卷積層:來減小通道數(shù)
步幅為2的平均池化層:減半高和寬

DenseNet模型

作業(yè)





?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末狭莱,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子概作,更是在濱河造成了極大的恐慌腋妙,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,496評論 6 491
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件仆嗦,死亡現(xiàn)場離奇詭異辉阶,居然都是意外死亡先壕,警方通過查閱死者的電腦和手機(jī)瘩扼,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,187評論 3 385
  • 文/潘曉璐 我一進(jìn)店門谆甜,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人集绰,你說我怎么就攤上這事规辱。” “怎么了栽燕?”我有些...
    開封第一講書人閱讀 157,091評論 0 348
  • 文/不壞的土叔 我叫張陵罕袋,是天一觀的道長。 經(jīng)常有香客問我碍岔,道長浴讯,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,458評論 1 283
  • 正文 為了忘掉前任蔼啦,我火速辦了婚禮榆纽,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘捏肢。我一直安慰自己奈籽,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,542評論 6 385
  • 文/花漫 我一把揭開白布鸵赫。 她就那樣靜靜地躺著衣屏,像睡著了一般。 火紅的嫁衣襯著肌膚如雪辩棒。 梳的紋絲不亂的頭發(fā)上狼忱,一...
    開封第一講書人閱讀 49,802評論 1 290
  • 那天,我揣著相機(jī)與錄音盗温,去河邊找鬼藕赞。 笑死,一個胖子當(dāng)著我的面吹牛卖局,可吹牛的內(nèi)容都是我干的斧蜕。 我是一名探鬼主播,決...
    沈念sama閱讀 38,945評論 3 407
  • 文/蒼蘭香墨 我猛地睜開眼砚偶,長吁一口氣:“原來是場噩夢啊……” “哼批销!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起染坯,我...
    開封第一講書人閱讀 37,709評論 0 266
  • 序言:老撾萬榮一對情侶失蹤均芽,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后单鹿,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體掀宋,經(jīng)...
    沈念sama閱讀 44,158評論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,502評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了劲妙。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片湃鹊。...
    茶點(diǎn)故事閱讀 38,637評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖镣奋,靈堂內(nèi)的尸體忽然破棺而出币呵,到底是詐尸還是另有隱情,我是刑警寧澤侨颈,帶...
    沈念sama閱讀 34,300評論 4 329
  • 正文 年R本政府宣布余赢,位于F島的核電站,受9級特大地震影響哈垢,放射性物質(zhì)發(fā)生泄漏妻柒。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,911評論 3 313
  • 文/蒙蒙 一耘分、第九天 我趴在偏房一處隱蔽的房頂上張望蛤奢。 院中可真熱鬧,春花似錦陶贼、人聲如沸啤贩。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,744評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽痹屹。三九已至,卻和暖如春枉氮,著一層夾襖步出監(jiān)牢的瞬間志衍,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,982評論 1 266
  • 我被黑心中介騙來泰國打工聊替, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留楼肪,地道東北人。 一個月前我還...
    沈念sama閱讀 46,344評論 2 360
  • 正文 我出身青樓惹悄,卻偏偏與公主長得像春叫,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子泣港,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,500評論 2 348

推薦閱讀更多精彩內(nèi)容