Deep Learning筆記: Course 1, Week 4

Deep Neural Network

本周課程涉及到的知識(shí)點(diǎn)有:

  • Deep neural network 的架構(gòu)
  • Deep neural network 上的正向傳播和反向傳播
  • Parameters 以及 Hyperparameters的概念

Deep neural network 的架構(gòu)

終于我們開始進(jìn)入了深度神經(jīng)網(wǎng)絡(luò)的世界咪橙。不過(guò)如果跟著前面的課程學(xué)下來(lái)會(huì)發(fā)現(xiàn)其實(shí)這沒有什么更多的新知識(shí),只是把單層神經(jīng)網(wǎng)絡(luò)擴(kuò)展到多層而已桶至。下圖給出了一個(gè)典型的神經(jīng)網(wǎng)絡(luò)陕贮,有一個(gè)輸入層黔宛,三個(gè)隱藏層以及一個(gè)輸出層剩愧。

Deep Neural Network.png

可以看到這個(gè)結(jié)構(gòu)和之前一節(jié)課學(xué)的shallow network 沒有什么本質(zhì)的區(qū)別,只是多了幾個(gè)隱藏層髓考。問(wèn)題是為何多用加幾個(gè)隱藏層就可以顯著的提高神經(jīng)網(wǎng)絡(luò)的性能呢影暴?下圖給出了一個(gè)例子襟己,比如說(shuō)我們要做一個(gè)人臉識(shí)別的應(yīng)用。那么第一層網(wǎng)絡(luò)一般會(huì)學(xué)習(xí)一些比較淺顯的feature, 例如點(diǎn)厦画,劃疮茄,邊線等等。然后第二層會(huì)把第一層的輸出結(jié)合起來(lái)學(xué)習(xí)一些更加復(fù)雜的feature,比如鼻子眼睛的形狀根暑。然后第三層可以進(jìn)一步把這些局部結(jié)構(gòu)組合在一起形成人臉的整體判斷力试。

Intuition of deep neural network

總結(jié)一下就是多個(gè)隱藏層給予了神經(jīng)網(wǎng)絡(luò)從抽象到具體,從細(xì)節(jié)局部到整體的學(xué)習(xí)能力购裙。這使得我們無(wú)需去深入研究如何構(gòu)造復(fù)雜的feature, 直接采用raw feature往往就能取得很好的性能懂版。

深度神經(jīng)網(wǎng)絡(luò)的計(jì)算過(guò)程也和之前的大同小異,下圖給出了一個(gè)總結(jié):

Deep neural network的計(jì)算

我們首先還是初始化每層的參數(shù) Wb , 然后對(duì)每層先進(jìn)行l(wèi)inear 計(jì)算躏率, 隨后通過(guò)activation function (通常選擇ReLU)得到下一層的輸入躯畴。通過(guò)最后一層的activation function為sigmoid函數(shù)我們得到一個(gè)最終的概率(比如圖像是貓的概率)民鼓。我們通過(guò)把最終的輸出和已經(jīng)標(biāo)記的ground truth比較得到當(dāng)前神經(jīng)網(wǎng)絡(luò)的 cost 是多少。隨后我們通過(guò)反向傳播更新每層的參數(shù) Wb 來(lái)最小化這個(gè)cost 蓬抄。在多次循環(huán)之后我們最終收斂得到了一個(gè)最優(yōu)化的 Wb丰嘉,即可以輸出和真實(shí)判斷最接近的判斷結(jié)果。

從這個(gè)總結(jié)可以看出嚷缭,深度神經(jīng)網(wǎng)絡(luò)的關(guān)鍵概括起來(lái)還是正向傳播計(jì)算輸出饮亏,反向傳播更新參數(shù)。下面我們來(lái)具體看一看這兩個(gè)過(guò)程阅爽。

Deep neural network 上的正向傳播和反向傳播

下面這個(gè)草圖給出了第L層的正向傳播和反向傳播的計(jì)算路幸。

L層的輸入輸出計(jì)算

注意草圖中采用了小寫的 az 來(lái)代表一個(gè)training data, 然而在實(shí)際計(jì)算中我們通常同時(shí)處理 m 個(gè)training data,因此用大寫的 AZ 來(lái)表示。在下面的筆記中我們一律采用大寫付翁。

正向傳播: 所謂的正向傳播也就是拿前一層是輸入 A[L-1] (其中 A[0] 即為原始輸入數(shù)據(jù)), 乘以 W[L] 加上 b[L] 得到 Z[L]简肴,然后再把 Z[L] 丟到激活函數(shù)中計(jì)算得到 A[L] 的過(guò)程。計(jì)算如下所示:

[圖片上傳失敗...(image-2ecb53-1511717398961)]

[圖片上傳失敗...(image-9ada96-1511717398961)]%20=%20g(W{[l]}A{[l-1]}%20+b^{[l]})$)

注意g(*)也就是激活函數(shù)百侧,一般Hidden layer我們用ReLU, 而最后的輸出層用sigmoid (二元分類)或者softmax(多元分類)

反向傳播: 反向傳播用來(lái)計(jì)算最后cost function對(duì)每個(gè)參數(shù)的梯度砰识,也就是 dW[L]db[L] , 為了計(jì)算這個(gè)我們首先要計(jì)算cost function對(duì)每層計(jì)算出來(lái)的 z[L]a[L] 的梯度,計(jì)算公式如下所示:

[圖片上傳失敗...(image-69c1c9-1511717398961)]%20\tag{11}$$)

[圖片上傳失敗...(image-6065ef-1511717398961)]

[圖片上傳失敗...(image-c0a874-1511717398961)]

[圖片上傳失敗...(image-6253f3-1511717398961)]}$$)

這個(gè)過(guò)程咋一看令人非常崩潰佣渴,我們來(lái)捋一下辫狼。

  1. 首先在計(jì)算出 A[L] 也就是最后輸出之后,我們可以計(jì)算得到dA[L] 辛润。如果采取sigmoid function 那么就是 dA[L] = -Y/A[L] - (1-Y)/(1-A[L])
  2. 通過(guò) dA[L]Z[L]計(jì)算 dZ[L]
  3. 通過(guò) dZ[L]W[L] 計(jì)算 dA[L-1]
  4. 通過(guò) dZ[L]A[L-1] 計(jì)算 dW[L]
  5. 通過(guò) dZ[L] 計(jì)算 db[L]

注意這個(gè)過(guò)程中我們其實(shí)感興趣的就是 dW[L]db[L] , 而別的都是一些中間變量膨处。注意加粗的 Z[L], W[L] 和 A[L-1] 都是forward propagation的中間結(jié)果。因此我們?cè)谟?jì)算forward propagation的時(shí)候需要把它們緩存下來(lái)來(lái)計(jì)算反向梯度频蛔。

下圖給出了完整的正向傳播和反向傳播的流程:

image.png

再次強(qiáng)調(diào)一遍灵迫,其中 A[0] 對(duì)應(yīng)原始輸入,這也就是我們無(wú)需再計(jì)算 dA[0] 了-畢竟我們的目的是更新 dWdb. 更新公式也就是我們熟悉的gradient descent (底部的綠色公式)晦溪。

Parameters 以及 Hyperparameters的概念

所謂的Parameters 指的是每層的 W[L]b[L]瀑粥, 這些參數(shù)是神經(jīng)網(wǎng)絡(luò)需要去不斷更新優(yōu)化來(lái)讓最后的prediction結(jié)果逼近真實(shí)情況的。而Hyperparameters指的則是learning rate, 神經(jīng)網(wǎng)絡(luò)的Hidden layer的層數(shù)三圆,每層的neuron 的個(gè)數(shù)等等狞换。這些參數(shù)無(wú)需更新,然而需要我們初始化舟肉,并且往往初始化的結(jié)果決定了最后訓(xùn)練出來(lái)的Parameters (W[L]b[L])的好壞修噪。因此我們把它們稱之為Hyperparameters。

最后路媚,Hyperparameters的設(shè)置會(huì)對(duì)神經(jīng)網(wǎng)絡(luò)的結(jié)果產(chǎn)生不可估量的影響黄琼。因此如何調(diào)整合適的hyperparameters也是deep learning里一種非常重要的技能。在下一個(gè)系列的課程中整慎,我們會(huì)深入看看如何一些讓deep learning工作的更好的調(diào)整hyperparameters的經(jīng)驗(yàn)方法脏款。

總結(jié)

到這里其實(shí)最deep learning的基本原理就已經(jīng)介紹完了围苫。可以看出其中并沒有什么特別玄妙高深的知識(shí)撤师,其過(guò)程概括起來(lái)無(wú)非是利用正向傳播計(jì)算cost剂府,反向傳播計(jì)算梯度, 以及梯度下降算法來(lái)優(yōu)化網(wǎng)絡(luò)參數(shù)剃盾。問(wèn)題是在于現(xiàn)在還沒有一個(gè)數(shù)學(xué)模型來(lái)概括在deep learning的過(guò)程中到底發(fā)生了什么腺占,各個(gè)參數(shù)到底是如何變化的。因此獲得良好的deep learning的性能我們需要不斷的嘗試各種不同的初始化參數(shù)痒谴。下面我們會(huì)介紹一些實(shí)際應(yīng)用中能讓deep learning效果更好的一些技巧以及更復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)(CNN & RNN)衰伯。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市闰歪,隨后出現(xiàn)的幾起案子嚎研,更是在濱河造成了極大的恐慌,老刑警劉巖库倘,帶你破解...
    沈念sama閱讀 218,546評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異论矾,居然都是意外死亡教翩,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,224評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門贪壳,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)饱亿,“玉大人,你說(shuō)我怎么就攤上這事闰靴”肓” “怎么了?”我有些...
    開封第一講書人閱讀 164,911評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵蚂且,是天一觀的道長(zhǎng)配猫。 經(jīng)常有香客問(wèn)我,道長(zhǎng)杏死,這世上最難降的妖魔是什么泵肄? 我笑而不...
    開封第一講書人閱讀 58,737評(píng)論 1 294
  • 正文 為了忘掉前任,我火速辦了婚禮淑翼,結(jié)果婚禮上腐巢,老公的妹妹穿的比我還像新娘。我一直安慰自己玄括,他們只是感情好冯丙,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,753評(píng)論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著遭京,像睡著了一般胃惜。 火紅的嫁衣襯著肌膚如雪风宁。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,598評(píng)論 1 305
  • 那天蛹疯,我揣著相機(jī)與錄音戒财,去河邊找鬼。 笑死捺弦,一個(gè)胖子當(dāng)著我的面吹牛饮寞,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播列吼,決...
    沈念sama閱讀 40,338評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼幽崩,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了寞钥?” 一聲冷哼從身側(cè)響起慌申,我...
    開封第一講書人閱讀 39,249評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎理郑,沒想到半個(gè)月后蹄溉,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,696評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡您炉,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,888評(píng)論 3 336
  • 正文 我和宋清朗相戀三年柒爵,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片赚爵。...
    茶點(diǎn)故事閱讀 40,013評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡棉胀,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出冀膝,到底是詐尸還是另有隱情唁奢,我是刑警寧澤,帶...
    沈念sama閱讀 35,731評(píng)論 5 346
  • 正文 年R本政府宣布窝剖,位于F島的核電站麻掸,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏枯芬。R本人自食惡果不足惜论笔,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,348評(píng)論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望千所。 院中可真熱鬧狂魔,春花似錦、人聲如沸淫痰。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,929評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至籽孙,卻和暖如春烈评,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背犯建。 一陣腳步聲響...
    開封第一講書人閱讀 33,048評(píng)論 1 270
  • 我被黑心中介騙來(lái)泰國(guó)打工讲冠, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人适瓦。 一個(gè)月前我還...
    沈念sama閱讀 48,203評(píng)論 3 370
  • 正文 我出身青樓竿开,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親玻熙。 傳聞我的和親對(duì)象是個(gè)殘疾皇子否彩,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,960評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容