Batch Norm

Normalizing activations in a network

在機器學(xué)習(xí)中很多算法都是通過添加變量來獲取某種“靈活性”或者更廣闊的"適應(yīng)范圍"淆院,并且使得有機會通過"學(xué)習(xí)"來獲得最合適的參數(shù)料按。
例如在"Normalizing activations in a network"中提到的,我們先把z(i)進行normalizing,這時z(i)norm就會變?yōu)橄鄬ΚM小的一個范圍內(nèi)的數(shù)值纺非,但是實際情況可能確實是一個比較大的范圍派草,那么怎么辦呢?通過加權(quán)重變量可以讓它重新?lián)碛凶兓秶枞罚@跟原先的z是不同的目溉,原先的z過來后就不變了明肮,它可能是個很大的值,也可能是很小的值停做,但是對于加了權(quán)重變量的z(i)norm而言晤愧,它是變化的,是可以學(xué)習(xí)的蛉腌。

batch norm

  • 如上圖最右側(cè)的坐標(biāo)圖官份,當(dāng)normalizing之后,znorm會被限制在一個較小的范圍內(nèi)烙丛,這導(dǎo)致了sigmoid退化成了接近線性函數(shù)舅巷。
  • 為避免上述情況,則需要加γ和β河咽,γ和β使得z<~</up>可以擁有更寬闊的范圍钠右,而且γ和β是通過training而調(diào)整的。

Fitting Batch Norm into a neural network

針對一個完整的神經(jīng)網(wǎng)絡(luò)忘蟹,batch norm如下運用


adding batch norm to a network
  • 可以看出在所有神經(jīng)元的計算過程中飒房,在z[l] 和 a[l]之間進行了batch norm計算
  • 最終梯度下降的過程中,同樣也會計算dβ和dγ媚值,(可以簡單地認(rèn)為又加了一層神經(jīng)網(wǎng)絡(luò)狠毯,但是計算方式不同)
  • 實際項目中可以通過框架的函數(shù)來實現(xiàn)batch norm,如圖中所示運用了TensorFlow的庫函數(shù)可以直接一行代碼實現(xiàn)batch norm
working with mini-batches
  • 當(dāng)我們使用mini-batches的時候褥芒,均值??和??是當(dāng)前batch的??和??嚼松,所以每個batch可能不一樣
  • 另外,由于計算均值??的時候锰扶,常數(shù)項會相減献酗,所以常數(shù)項b可以忽略掉

綜合起來,如下圖所示:


implementing gradient decent
  • 在梯度下降的過程中坷牛,我們?nèi)匀豢梢赃\用momentum或者adam算法來加速梯度下降

Why does Batch Norm work

首先Andrew講了一個概念叫"Covariate shift", 即當(dāng)訓(xùn)練集變化的時候罕偎,通常我們都需要重新訓(xùn)練我們的模型,如下圖所示


covariate shift

而在深度學(xué)習(xí)的過程中京闰,每個隱層對于下一層來說就相當(dāng)于輸入層锨亏,而這個隱層的輸出卻會不斷改變,如下圖所示:


hidden layer changes
  • 由于w, b的不斷變化忙干,導(dǎo)致hidden layer的a也不斷變化器予,這就產(chǎn)生了"covariate shift"問題,所以模型訓(xùn)練就不穩(wěn)定捐迫。
  • 而batch-norm將a輸出變?yōu)橄鄬Ψ€(wěn)定的范圍乾翔,從而導(dǎo)致給下一層的輸出變得穩(wěn)定,這樣就可以解決"covariate shift"問題
  • batch-norm相當(dāng)于給每一層進行了解耦合,使得每層的訓(xùn)練不會相互影響

另外反浓,Andrew還提到了batch-nom還有輕微的正則化效果萌丈。

Batch Norm at test time

batch norm at test time

通過在batch-mini的計算過程中同時計算??和??的指數(shù)加權(quán)平均值,可以得到一個??和??的平均數(shù)雷则,然后用這個平均數(shù)作為test時的??和??即可

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末辆雾,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子月劈,更是在濱河造成了極大的恐慌度迂,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,941評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件猜揪,死亡現(xiàn)場離奇詭異惭墓,居然都是意外死亡,警方通過查閱死者的電腦和手機而姐,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,397評論 3 395
  • 文/潘曉璐 我一進店門腊凶,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人拴念,你說我怎么就攤上這事钧萍。” “怎么了政鼠?”我有些...
    開封第一講書人閱讀 165,345評論 0 356
  • 文/不壞的土叔 我叫張陵划煮,是天一觀的道長。 經(jīng)常有香客問我缔俄,道長,這世上最難降的妖魔是什么器躏? 我笑而不...
    開封第一講書人閱讀 58,851評論 1 295
  • 正文 為了忘掉前任俐载,我火速辦了婚禮,結(jié)果婚禮上登失,老公的妹妹穿的比我還像新娘遏佣。我一直安慰自己,他們只是感情好揽浙,可當(dāng)我...
    茶點故事閱讀 67,868評論 6 392
  • 文/花漫 我一把揭開白布状婶。 她就那樣靜靜地躺著,像睡著了一般馅巷。 火紅的嫁衣襯著肌膚如雪膛虫。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,688評論 1 305
  • 那天钓猬,我揣著相機與錄音稍刀,去河邊找鬼。 笑死,一個胖子當(dāng)著我的面吹牛账月,可吹牛的內(nèi)容都是我干的综膀。 我是一名探鬼主播,決...
    沈念sama閱讀 40,414評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼局齿,長吁一口氣:“原來是場噩夢啊……” “哼剧劝!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起抓歼,我...
    開封第一講書人閱讀 39,319評論 0 276
  • 序言:老撾萬榮一對情侶失蹤讥此,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后锭部,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體暂论,經(jīng)...
    沈念sama閱讀 45,775評論 1 315
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,945評論 3 336
  • 正文 我和宋清朗相戀三年拌禾,在試婚紗的時候發(fā)現(xiàn)自己被綠了取胎。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,096評論 1 350
  • 序言:一個原本活蹦亂跳的男人離奇死亡湃窍,死狀恐怖闻蛀,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情您市,我是刑警寧澤觉痛,帶...
    沈念sama閱讀 35,789評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站茵休,受9級特大地震影響薪棒,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜榕莺,卻給世界環(huán)境...
    茶點故事閱讀 41,437評論 3 331
  • 文/蒙蒙 一俐芯、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧钉鸯,春花似錦吧史、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,993評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至岩睁,卻和暖如春钞脂,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背捕儒。 一陣腳步聲響...
    開封第一講書人閱讀 33,107評論 1 271
  • 我被黑心中介騙來泰國打工芳肌, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 48,308評論 3 372
  • 正文 我出身青樓亿笤,卻偏偏與公主長得像翎迁,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子净薛,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,037評論 2 355

推薦閱讀更多精彩內(nèi)容