李宏毅機(jī)器學(xué)習(xí)入門學(xué)習(xí)筆記(六) Brief Introduction of Deep Learning

本文主要學(xué)習(xí)深度學(xué)習(xí)的一些基礎(chǔ)知識移宅,了解入門

背景

深度學(xué)習(xí)的發(fā)展趨勢

下圖是Google使用深度學(xué)習(xí)的項(xiàng)目變化趨勢:


image

深度學(xué)習(xí)的發(fā)展史

回顧一下deep learning的歷史:

  • 1958: Perceptron (linear model)
  • 1969: Perceptron has limitation
  • 1980s: Multi-layer perceptron
    • Do not have significant difference from DNN today
  • 1986: Backpropagation
    • Usually more than 3 hidden layers is not helpful
  • 1989: 1 hidden layer is “good enough”, why deep?
  • 2006: RBM initialization (breakthrough)
  • 2009: GPU
  • 2011: Start to be popular in speech recognition
  • 2012: win ILSVRC image competition

感知機(jī)(Perceptron)非常像我們的邏輯回歸(Logistics Regression)只不過是沒有sigmoid激活函數(shù)杏头。09年的GPU的發(fā)展是很關(guān)鍵的,使用GPU矩陣運(yùn)算節(jié)省了很多的時間。

深度學(xué)習(xí)的三個步驟

我們都知道機(jī)器學(xué)習(xí)有三個step矩父,那么對于deep learning呢?其實(shí)也是3個步驟~~如下圖所示:

在這里插入圖片描述
  • Step1:神經(jīng)網(wǎng)絡(luò)(Neural network)
  • Step2:模型評估(Goodness of function)
  • Step3:選擇最優(yōu)函數(shù)(Pick best function)

那對于深度學(xué)習(xí)的Step1就是神經(jīng)網(wǎng)絡(luò)(Neural Network)

Step1:神經(jīng)網(wǎng)絡(luò)(Neural Network)

神經(jīng)網(wǎng)絡(luò)(Neural network)里面的節(jié)點(diǎn),類似我們的神經(jīng)元腻异。


在這里插入圖片描述

神經(jīng)網(wǎng)絡(luò)也可以有很多不同的連接方式,這樣就會產(chǎn)生不同的結(jié)構(gòu)(structure)这揣。
那都有什么連接方式呢捂掰?其實(shí)連接方式都是你手動去設(shè)計的:

完全連接前饋神經(jīng)網(wǎng)絡(luò)

概念:前饋(feedforward)也可以稱為前向,從信號流向來理解就是輸入信號進(jìn)入網(wǎng)絡(luò)后曾沈,信號流動是單向的这嚣,即信號從前一層流向后一層,一直到輸出層塞俱,其中任意兩層之間的連接并沒有反饋(feedback)姐帚,亦即信號沒有從后一層又返回到前一層。


在這里插入圖片描述
  • 當(dāng)已知權(quán)重和閾值時輸入(1,-1)的結(jié)果
  • 當(dāng)已知權(quán)重和閾值時輸入(0,0)的結(jié)果
在這里插入圖片描述

所以可以把整個神經(jīng)網(wǎng)絡(luò)(neural network)看成是一個函數(shù)(function)障涯,如果神經(jīng)網(wǎng)絡(luò)中的權(quán)重和閾值都知道的話罐旗,就是一個已知的函數(shù)(也就是說膳汪,如果我們把參數(shù)都設(shè)置上去,這個神經(jīng)網(wǎng)絡(luò)其實(shí)就是一個函數(shù))九秀。他的輸入是一個向量遗嗽,對應(yīng)的輸出也是一個向量。

如果只是定義了一個神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)鼓蜒,但是不知道權(quán)重還有閾值怎么辦呢痹换?


在這里插入圖片描述

給了結(jié)構(gòu)就相當(dāng)于定義了一個函數(shù)集(function set)

不論是做回歸模型(linear model)還是邏輯回歸(logistics regression)都是定義了一個函數(shù)集(function set)。我們可以給上面的結(jié)構(gòu)的參數(shù)設(shè)置為不同的數(shù)都弹,就是不同的函數(shù)(function)娇豫。這些可能的函數(shù)(function)結(jié)合起來就是一個函數(shù)集(function set)。這個時候你的函數(shù)集(function set)是比較大的畅厢,是以前的回歸模型(linear model)等沒有辦法包含的函數(shù)(function)冯痢,所以說深度學(xué)習(xí)(Deep Learning)能表達(dá)出以前所不能表達(dá)的情況。

我們通過另一種方式顯示這個函數(shù)集:

全鏈接和前饋的理解

  • 輸入層(Input Layer):1層
  • 隱藏層(Hidden Layer):N層
  • 輸出層(Output Layer):1層


    在這里插入圖片描述
  • 為什么叫全鏈接呢框杜?
    • 因?yàn)閘ayer1與layer2之間兩兩都有連接浦楣,所以叫做Fully Connect;
  • 為什么叫前饋呢咪辱?
    • 因?yàn)楝F(xiàn)在傳遞的方向是由后往前傳振劳,所以叫做Feedforward。

深度的理解

那什么叫做Deep呢梧乘?Deep = Many hidden layer澎迎。那到底可以有幾層呢?


在這里插入圖片描述

在這里插入圖片描述
  • 2012 AlexNet:8層
  • 2014 VGG:19層
  • 2014 GoogleNet:22層
  • 2015 Residual Net:152層
  • 101 Taipei:101層

隨著層數(shù)變多选调,錯誤率降低夹供,隨之運(yùn)算量增大,通常都是超過億萬級的計算仁堪。對于這樣復(fù)雜的結(jié)構(gòu)哮洽,我們一定不會一個一個的計算,對于億萬級的計算弦聂,使用loop循環(huán)效率很低鸟辅。

引入矩陣計算(Matrix Operation)能使得我們的運(yùn)算的速度以及效率高很多:

矩陣計算

如下圖所示,輸入是 (1莺葫,-1)匪凉,輸出是(0.98,0.12)捺檬。
計算方法就是:sigmod(權(quán)重w【黃色】 * 輸入【藍(lán)色】+ 偏移量b【綠色】)= 輸出

在這里插入圖片描述

如果有很多層呢再层?
a^1 = \sigma (w^1x+b^1) \\ a^2 = \sigma (w^1a^1+b^2) \\ ··· \\ y = \sigma (w^La^{L-1}+b^L)

在這里插入圖片描述

計算方法就像是嵌套,這里就不列公式了,結(jié)合上一個圖更好理解聂受。


在這里插入圖片描述

從結(jié)構(gòu)上看每一層的計算都是一樣的蒿秦,在計算機(jī)里面使用并行計算技術(shù)加速矩陣運(yùn)算。
這樣寫成矩陣運(yùn)算的好處是蛋济,你可以使用GPU加速棍鳖。那我們看看本質(zhì)是怎么回事呢?

本質(zhì):通過隱藏層進(jìn)行特征轉(zhuǎn)換

疑問:PPT里面特征提取替代特征工程(Feature extractor replacing feature engineering)碗旅,這句話沒有看明白


在這里插入圖片描述

示例:手寫數(shù)字識別

舉一個手寫數(shù)字體識別的例子


在這里插入圖片描述

輸入:一個16*16=256個特征的向量渡处,有顏色用(ink)用1表示,沒有顏色(no ink)用0表示
輸出:10個維度扛芽,每個維度代表一個數(shù)字的置信度骂蓖。


在這里插入圖片描述

從輸出結(jié)果看积瞒,是數(shù)字2的置信度為0.7川尖,比較高。
在這里插入圖片描述

將識別手寫數(shù)字的問題轉(zhuǎn)換茫孔,輸入是256維的向量叮喳,輸出是10維的向量,我們所需要求的就是隱藏層神經(jīng)網(wǎng)絡(luò)的函數(shù)


在這里插入圖片描述

神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)缰贝,決定了函數(shù)集(function set)馍悟,所以說網(wǎng)絡(luò)結(jié)構(gòu)(network structured)很關(guān)鍵。

了解Step1剩晴,也會引入相關(guān)的問題:

  • 多少層锣咒? 每層有多少神經(jīng)元?
    • 嘗試發(fā)現(xiàn)錯誤 + 直覺
  • 結(jié)構(gòu)可以自動確定嗎赞弥?
    • 進(jìn)化人工神經(jīng)網(wǎng)絡(luò)(Evolutionary Artificial Neural Networks)
  • 我們可以設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)嗎毅整?
    • CNN卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network )


      image

      講完了step1之后就要將step2(怎么定義參數(shù)的好壞):

Step2: 模型評估(Goodness of function)

損失計算

image.png

我們需要把所有的data算起來:

總體損失

image.png
  • 把所有的損失求和
  • 在函數(shù)集(function set)中查找最小化總損失L的函數(shù)
  • 找到最小化總損失L的網(wǎng)絡(luò)參數(shù) θ^*

Step3:選擇最優(yōu)函數(shù)(Pick best function)

梯度下降(Gradient Descent)

如何找呢?Gradient Descent方法:

image

現(xiàn)在有很多架構(gòu)工具了:

反向傳播

image

思考

為什么要用深度學(xué)習(xí)绽左,深層架構(gòu)帶來哪些好處悼嫉?那是不是隱藏層越多越好?

隱藏層越多越好拼窥?

image

從圖中展示的結(jié)果看戏蔑,毫無疑問,層次越深效果越好~~

普遍性定理

參數(shù)多的model擬合數(shù)據(jù)很好是很正常的鲁纠。下面有一個通用的理論:
為什么“深層”神經(jīng)網(wǎng)絡(luò)不是“胖”神經(jīng)網(wǎng)絡(luò)总棵?可以通過具有一個隱藏層的網(wǎng)絡(luò)實(shí)現(xiàn)(給定足夠的隱藏神經(jīng)元)


image

參考文檔

神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)之——前饋神經(jīng)網(wǎng)絡(luò)

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市改含,隨后出現(xiàn)的幾起案子情龄,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,451評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件刃唤,死亡現(xiàn)場離奇詭異隔心,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)尚胞,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,172評論 3 394
  • 文/潘曉璐 我一進(jìn)店門硬霍,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人笼裳,你說我怎么就攤上這事唯卖。” “怎么了躬柬?”我有些...
    開封第一講書人閱讀 164,782評論 0 354
  • 文/不壞的土叔 我叫張陵拜轨,是天一觀的道長。 經(jīng)常有香客問我允青,道長橄碾,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,709評論 1 294
  • 正文 為了忘掉前任颠锉,我火速辦了婚禮法牲,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘琼掠。我一直安慰自己拒垃,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,733評論 6 392
  • 文/花漫 我一把揭開白布瓷蛙。 她就那樣靜靜地躺著悼瓮,像睡著了一般。 火紅的嫁衣襯著肌膚如雪艰猬。 梳的紋絲不亂的頭發(fā)上横堡,一...
    開封第一講書人閱讀 51,578評論 1 305
  • 那天,我揣著相機(jī)與錄音姥宝,去河邊找鬼翅萤。 笑死,一個胖子當(dāng)著我的面吹牛腊满,可吹牛的內(nèi)容都是我干的套么。 我是一名探鬼主播,決...
    沈念sama閱讀 40,320評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼碳蛋,長吁一口氣:“原來是場噩夢啊……” “哼胚泌!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起肃弟,我...
    開封第一講書人閱讀 39,241評論 0 276
  • 序言:老撾萬榮一對情侶失蹤玷室,失蹤者是張志新(化名)和其女友劉穎零蓉,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體穷缤,經(jīng)...
    沈念sama閱讀 45,686評論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡敌蜂,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,878評論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了津肛。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片章喉。...
    茶點(diǎn)故事閱讀 39,992評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖身坐,靈堂內(nèi)的尸體忽然破棺而出秸脱,到底是詐尸還是另有隱情,我是刑警寧澤部蛇,帶...
    沈念sama閱讀 35,715評論 5 346
  • 正文 年R本政府宣布摊唇,位于F島的核電站,受9級特大地震影響涯鲁,放射性物質(zhì)發(fā)生泄漏巷查。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,336評論 3 330
  • 文/蒙蒙 一撮竿、第九天 我趴在偏房一處隱蔽的房頂上張望吮便。 院中可真熱鬧笔呀,春花似錦幢踏、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,912評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽贾铝。三九已至握童,卻和暖如春魏铅,著一層夾襖步出監(jiān)牢的瞬間园爷,已是汗流浹背莉兰。 一陣腳步聲響...
    開封第一講書人閱讀 33,040評論 1 270
  • 我被黑心中介騙來泰國打工刊懈, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留内狸,地道東北人灿里。 一個月前我還...
    沈念sama閱讀 48,173評論 3 370
  • 正文 我出身青樓云芦,卻偏偏與公主長得像俯逾,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子舅逸,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,947評論 2 355

推薦閱讀更多精彩內(nèi)容