深度學(xué)習(xí) ( Deep Learning ) 是機(jī)器學(xué)習(xí) ( Machine Learning ) 中近年來備受重視的一支,深度學(xué)習(xí)根源于類神經(jīng)網(wǎng)絡(luò) ( Artificial Neural Network ) 模型盏缤,但今日深度學(xué)習(xí)的技術(shù)和它的前身已截然不同砰蠢,目前最好的語音識(shí)別和影像辨識(shí)系統(tǒng)都是以深度學(xué)習(xí)技術(shù)來完成,你可能在很多不同的場合聽過各種用深度學(xué)習(xí)做出的驚人應(yīng)用 ( 例如:最近紅遍大街小巷的 AlphaGo )唉铜,聽完以后覺得心癢癢的台舱,想要趕快使用這項(xiàng)強(qiáng)大的技術(shù),卻不知要從何下手學(xué)習(xí)潭流,那這門課就是你所需要的竞惋。
這門課程將由臺(tái)大電機(jī)系李宏毅教授利用短短的一天議程簡介深度學(xué)習(xí)。以下是課程大綱:
** 什么是深度學(xué)習(xí) **
深度學(xué)習(xí)的技術(shù)表面上看起來五花八門灰嫉,但其實(shí)就是三個(gè)步驟:設(shè)定好類神經(jīng)網(wǎng)絡(luò)架構(gòu)拆宛、訂出學(xué)習(xí)目標(biāo)、開始學(xué)習(xí)讼撒,這堂課會(huì)簡介如何使用深度學(xué)習(xí)的工具 Keras浑厚,它可以幫助你在十分鐘內(nèi)完成深度學(xué)習(xí)的程序。另外椿肩,有人說深度學(xué)習(xí)很厲害瞻颂、有各種吹捧,也有人說深度學(xué)習(xí)只是個(gè)噱頭郑象,到底深度學(xué)習(xí)和其他的機(jī)器學(xué)習(xí)方法有什么不同呢贡这?這堂課要剖析深度學(xué)習(xí)和其它機(jī)器學(xué)習(xí)方法相比潛在的優(yōu)勢(shì)。
**深度學(xué)習(xí)的各種小技巧 **
雖然現(xiàn)在深度學(xué)習(xí)的工具滿街都是厂榛,想要寫一個(gè)深度學(xué)習(xí)的程序只是舉手之勞盖矫,但要得到好的成果可不簡單,訓(xùn)練過程中各種枝枝節(jié)節(jié)的小技巧才是成功的關(guān)鍵击奶。本課程中將分享深度學(xué)習(xí)的實(shí)作技巧及實(shí)戰(zhàn)經(jīng)驗(yàn)辈双。
有記憶力的深度學(xué)習(xí)模型
機(jī)器需要記憶力才能做更多事情,這段課程要講解遞歸式類神經(jīng)網(wǎng)絡(luò) ( Recurrent Neural Network )柜砾,告訴大家深度學(xué)習(xí)模型如何可以有記憶力湃望。
**深度學(xué)習(xí)應(yīng)用與展望 **
深度學(xué)習(xí)可以拿來做甚么?怎么用深度學(xué)習(xí)做語音識(shí)別?怎么用深度學(xué)習(xí)做問答系統(tǒng)证芭?接下來深度學(xué)習(xí)的研究者們?cè)谝獾氖鞘裁礃拥膯栴}呢瞳浦?
深度學(xué)習(xí)吸引了很大的關(guān)注:
我相信,你之前肯定見到過很多激動(dòng)人心的結(jié)果废士。圖中是谷歌內(nèi)部深度學(xué)習(xí)技術(shù)的使用趨勢(shì)叫潦,可以看到從2015年第二季度開始,使用量呈直線上升官硝。本講義聚焦深度學(xué)習(xí)基礎(chǔ)技術(shù)矗蕊。
大綱:
報(bào)告第一部分:介紹深度學(xué)習(xí)
報(bào)告第二部分:關(guān)于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的一些建議
報(bào)告第三部分:各種各樣的神經(jīng)網(wǎng)絡(luò)
報(bào)告第四部分:下一股浪潮
報(bào)告1:深度學(xué)習(xí)介紹
深度學(xué)習(xí)有3步:神經(jīng)網(wǎng)絡(luò)架構(gòu)--學(xué)習(xí)目標(biāo)--學(xué)習(xí)。
這三個(gè)步驟都是以數(shù)據(jù)為基礎(chǔ)的氢架。
第3步:選擇最佳的功能函數(shù)傻咖。
從原理上說,深度學(xué)習(xí)非常簡單达箍。
從函數(shù)的角度理解深度學(xué)習(xí):第一步比规,是一個(gè)函數(shù)集毕谴;第二步,定義函數(shù)的擬合度膳灶;第三部解滓,選擇最佳函數(shù)赃磨。
人類大腦的構(gòu)成
神經(jīng)網(wǎng)絡(luò):神經(jīng)元
激活函數(shù)的工作原理
不同的連接會(huì)導(dǎo)致不同的網(wǎng)絡(luò)結(jié)構(gòu)
完全連接的反向網(wǎng)絡(luò):S型網(wǎng)絡(luò)
極深網(wǎng)絡(luò):從8層到19層,一直到152層洼裤。
全連接的反向網(wǎng)絡(luò):矩陣系統(tǒng)
輸出層(選擇)
問題:
下圖中邻辉,總共有多少層?每一層有多少個(gè)神經(jīng)元腮鞍?
結(jié)構(gòu)能自動(dòng)決定嗎值骇?
第二步:學(xué)習(xí)目標(biāo),定義函數(shù)擬合度移国。
例子:識(shí)別“2”
訓(xùn)練數(shù)據(jù):
準(zhǔn)備訓(xùn)練數(shù)據(jù):圖像和相應(yīng)的標(biāo)簽
學(xué)習(xí)目標(biāo)
損失:一個(gè)好的函數(shù)應(yīng)該讓所有例子中的損失降到最小吱瘩。
全局損失
第三步:學(xué)習(xí)!選擇最佳函數(shù)迹缀。
如何選擇最佳函數(shù)
梯度下降
梯度下降:綜合多個(gè)參數(shù)考慮的時(shí)候使碾,你發(fā)現(xiàn)什么問題了嗎?
局部最小值:梯度下降從來不會(huì)保證可以獲得全局最小值
反向傳播
可以做什么祝懂?
報(bào)告二:關(guān)于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的一些小建議
報(bào)告三:各種各樣的神經(jīng)網(wǎng)絡(luò)
PDF下載地址:https://mr-rxz.github.io/download/Deep_Learning_Tutorial.pdf