深度學(xué)習(xí)導(dǎo)論 - 讀李宏毅《1天搞懂深度學(xué)習(xí)》

《1天搞懂深度學(xué)習(xí)》爵政,快300頁的ppt仅讽,臺灣李宏毅教授寫的,非常棒钾挟。不夸張地說洁灵,是我看過最系統(tǒng),也最通俗易懂的掺出,關(guān)于深度學(xué)習(xí)的文章徽千。

這是slideshare的鏈接:《1天搞懂深度學(xué)習(xí)》

廢話少說,先上干貨汤锨,整個PPT的思維導(dǎo)圖如下:

image

深度學(xué)習(xí)概論

介紹深度學(xué)習(xí)

作者非常淺顯的指出機器(深度)學(xué)習(xí)過程非常簡單双抽,分為定義方法、判斷方法的優(yōu)劣闲礼、挑選出最佳的方法荠诬。

image

對于深度學(xué)習(xí),首先第一步定義方法 - 神經(jīng)網(wǎng)絡(luò)位仁。深度學(xué)習(xí)顧名思義是指多層的神經(jīng)網(wǎng)絡(luò)。

神經(jīng)網(wǎng)絡(luò)的思想來源于對于人腦的生理上的研究方椎,人腦由數(shù)億個神經(jīng)元組成聂抢,神經(jīng)元通過軸突互相連接通信。神經(jīng)網(wǎng)絡(luò)和人腦類似棠众,存在多個層級(layer)琳疏,每個層級都有多個節(jié)點(神經(jīng)元)有决,層級和層級之間相互連接(軸突),最終輸出結(jié)果空盼。

對于神經(jīng)網(wǎng)絡(luò)的計算能力可以理解為通過一層層Layer的計算歸納书幕,逐步的將抽象的原始數(shù)據(jù)變的具體。以圖片識別為例揽趾,輸入是一個個像素點台汇,經(jīng)過每層神經(jīng)網(wǎng)絡(luò),逐步變化成為線篱瞎、面苟呐、對象的概念,然后機器有能力能夠識別出來俐筋。

image

第二步牵素,評估方法的優(yōu)劣。

Loss function是用于評估方法優(yōu)劣澄者,通常我們用學(xué)習(xí)出來的參數(shù)對測試數(shù)據(jù)進行計算私蕾,得出對應(yīng)的預(yù)測(y)然后和真實的測試數(shù)據(jù)的目標值(t)進行比對,y和t之間的差距往往就是Loss稠通。那么評估一個算法的好壞蝠引,就是要盡可能的降低Loss。

image

第三步抱怔,如何獲得最佳的學(xué)習(xí)方法

獲得最佳的學(xué)習(xí)是采用梯度下降算法劣坊,作者也提到梯度下降算法存在局部最優(yōu)解的問題。人們往往認為機器無所不能屈留,實際上更像是在一個地圖上面拓荒局冰,對周邊一無所知。神經(jīng)網(wǎng)絡(luò)計算梯度的算法是反向傳播算法灌危,簡稱BP康二。

image

Why Deep?

作者首先指出越多的參數(shù)往往帶來越好的預(yù)測能力勇蝙,所以神經(jīng)網(wǎng)絡(luò)往往參數(shù)越多越好沫勿。那么如果是同樣的參數(shù)情況下,為什么層級較多的表現(xiàn)會更好呢味混?

image

作者認為深度網(wǎng)絡(luò)可以帶來模塊化的好處产雹,隨著網(wǎng)絡(luò)的層級,神經(jīng)網(wǎng)絡(luò)會將像素元素逐漸歸納出一些基本的特征翁锡,進而變成紋理蔓挖,進而變成對象。

image

訓(xùn)練方法

image

作者總結(jié)下來訓(xùn)練過程中會發(fā)現(xiàn)了兩種情況:

1. 沒有辦法得到很好的訓(xùn)練結(jié)果 ---》 重新選擇訓(xùn)練方式

2. 沒有辦法得到很好的測試結(jié)果 ---》 往往由于過度擬合導(dǎo)致馆衔,需要重新定義方法

image

優(yōu)化訓(xùn)練方法的手段:

1. 選擇合適的Loss function:使用Cross Entropy效果要優(yōu)于Mean Square Error

2. Mini-batch: 每次訓(xùn)練使用少量數(shù)據(jù)而不是全量數(shù)據(jù)效率更高

3. Activation Function:使用ReLU替代Sigmoid可以解決梯度消失的問題瘟判,可以訓(xùn)練更深的神經(jīng)網(wǎng)絡(luò)

4. Adaptive Learning Rate:可以隨著迭代不斷自我調(diào)整怨绣,提高學(xué)習(xí)效率

5. Momentum: 可以一定程度上避免陷入局部最低點的問題

image

避免過度擬合(overfitting)的方法:

1. Early Stopping:使用cross validation的方式,不斷對validation data進行檢驗拷获,一旦發(fā)現(xiàn)預(yù)測精度下降則停止篮撑。

2. Weight Decay:參數(shù)正則化的一種方式?

3. Dropout:通過隨機去掉一些節(jié)點的連接達到改變網(wǎng)絡(luò)形式匆瓜,所以會產(chǎn)生出多種網(wǎng)絡(luò)形態(tài)赢笨,然后匯集得到一個最佳結(jié)果

4. Network Structure: 例如CNN等其他形態(tài)的網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)變體

Convolutional Neural Network (CNN)

image

通常情況下,一個CNN包含多次的卷積陕壹、池化质欲,然后Flatten,最終再通過一個深度神經(jīng)網(wǎng)絡(luò)進行學(xué)習(xí)預(yù)測糠馆。CNN在圖像嘶伟、語音識別取得非常好的成績,核心的想法在于一些物體的特征往往可以提取出來又碌,并且可能出現(xiàn)在圖片的任何位置九昧,而且通過卷積、池化可以大大減少輸入數(shù)據(jù)毕匀,加快訓(xùn)練效率铸鹰。

Recurrent Neural Network (RNN)

image

RNN的想法是可以將hidden layer的數(shù)據(jù)存儲下來,然后作為輸入給下一個網(wǎng)絡(luò)學(xué)習(xí)皂岔。這種網(wǎng)絡(luò)的想法可以解決自然語言中前后詞語是存在關(guān)聯(lián)性的蹋笼,所以RNN可以把這些關(guān)聯(lián)性放到網(wǎng)絡(luò)中進行學(xué)習(xí)。

其他前沿技術(shù)

Ultra Deep Network:2015年出現(xiàn)了152層的Residual Net實現(xiàn)了圖片3.57%錯誤率

image

Reinforcement Learning: 通過獎勵機制強化學(xué)習(xí)躁垛,并且做出相應(yīng)的動作

image

Unsupervised Learning:

1. Deep Style

image

2. 生成圖片

image

3. 無需人工介入理解文字的含義

image
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末剖毯,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子教馆,更是在濱河造成了極大的恐慌逊谋,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,817評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件土铺,死亡現(xiàn)場離奇詭異胶滋,居然都是意外死亡,警方通過查閱死者的電腦和手機悲敷,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,329評論 3 385
  • 文/潘曉璐 我一進店門究恤,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人后德,你說我怎么就攤上這事丁溅。” “怎么了探遵?”我有些...
    開封第一講書人閱讀 157,354評論 0 348
  • 文/不壞的土叔 我叫張陵窟赏,是天一觀的道長。 經(jīng)常有香客問我箱季,道長涯穷,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,498評論 1 284
  • 正文 為了忘掉前任藏雏,我火速辦了婚禮拷况,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘掘殴。我一直安慰自己赚瘦,他們只是感情好,可當我...
    茶點故事閱讀 65,600評論 6 386
  • 文/花漫 我一把揭開白布奏寨。 她就那樣靜靜地躺著起意,像睡著了一般。 火紅的嫁衣襯著肌膚如雪病瞳。 梳的紋絲不亂的頭發(fā)上揽咕,一...
    開封第一講書人閱讀 49,829評論 1 290
  • 那天,我揣著相機與錄音套菜,去河邊找鬼亲善。 笑死,一個胖子當著我的面吹牛逗柴,可吹牛的內(nèi)容都是我干的蛹头。 我是一名探鬼主播,決...
    沈念sama閱讀 38,979評論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼戏溺,長吁一口氣:“原來是場噩夢啊……” “哼渣蜗!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起于购,我...
    開封第一講書人閱讀 37,722評論 0 266
  • 序言:老撾萬榮一對情侶失蹤袍睡,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后肋僧,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體斑胜,經(jīng)...
    沈念sama閱讀 44,189評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,519評論 2 327
  • 正文 我和宋清朗相戀三年嫌吠,在試婚紗的時候發(fā)現(xiàn)自己被綠了止潘。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,654評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡辫诅,死狀恐怖凭戴,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情炕矮,我是刑警寧澤么夫,帶...
    沈念sama閱讀 34,329評論 4 330
  • 正文 年R本政府宣布者冤,位于F島的核電站,受9級特大地震影響档痪,放射性物質(zhì)發(fā)生泄漏涉枫。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,940評論 3 313
  • 文/蒙蒙 一腐螟、第九天 我趴在偏房一處隱蔽的房頂上張望愿汰。 院中可真熱鬧,春花似錦乐纸、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,762評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽小腊。三九已至,卻和暖如春久窟,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背斥扛。 一陣腳步聲響...
    開封第一講書人閱讀 31,993評論 1 266
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留稀颁,地道東北人芬失。 一個月前我還...
    沈念sama閱讀 46,382評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像匾灶,于是被迫代替她去往敵國和親棱烂。 傳聞我的和親對象是個殘疾皇子阶女,可洞房花燭夜當晚...
    茶點故事閱讀 43,543評論 2 349

推薦閱讀更多精彩內(nèi)容

  • 文章主要分為:一秃踩、深度學(xué)習(xí)概念衬鱼;二憔杨、國內(nèi)外研究現(xiàn)狀;三、深度學(xué)習(xí)模型結(jié)構(gòu)抛蚤;四、深度學(xué)習(xí)訓(xùn)練算法对碌;五蒿偎、深度學(xué)習(xí)的優(yōu)點...
    艾剪疏閱讀 21,807評論 0 58
  • 原文地址:http://www.cnblogs.com/subconscious/p/5058741.html 神...
    Albert陳凱閱讀 5,428評論 0 48
  • 「溫暖」 小視頻·等待 在它們眼中怀读,你就是全世界。你的眼中呢菜枷? 「逗趣」 小視頻·一個自己收拾蛋清的懶蛋黃 自力更...
    予緗閱讀 260評論 0 0
  • 費孝通先生的《鄉(xiāng)土中國》啤誊,寫于1937年,根據(jù)費老的實地考察和調(diào)研蚊锹,從社會生活多個方面,一一論述了當時中國基層社會...
    聽雨軒清秋閱讀 915評論 4 3