關(guān)于全連接神經(jīng)網(wǎng)絡(luò)(Full Connected Neural Network侣姆,F(xiàn)C)的討論已經(jīng)說的不少了雪隧,本篇將要介紹的是丘损,從2006年至今的神經(jīng)網(wǎng)絡(luò)第三次浪潮中彭羹,取得巨大成功、處于最核心位置的技術(shù)——卷積神經(jīng)網(wǎng)絡(luò)岛啸,Convolutional Neural Network(CNN)钓觉。
一戰(zhàn)成名
2012年AlexNet在ImageNet上一戰(zhàn)成名坚踩,點爆了深度學(xué)習(xí)革命荡灾,這是歷史性的時刻。其中的故事瞬铸,推薦依圖科技CEO朱瓏(Leo Zhu)的《深度學(xué)習(xí)三十年創(chuàng)新路》批幌,講的很精彩,下面的引用部分就是片段節(jié)選嗓节。
標(biāo)志性事件是荧缘,2012年底,Geoff Hinton的博士生Alex Krizhevsky拦宣、Ilya Sutskever(他們研究深度學(xué)習(xí)時間并不長)在圖片分類的競賽ImageNet上截粗,識別結(jié)果拿了第一名。其實類似的比賽每年很多鸵隧,但意義在于绸罗,Google團(tuán)隊也在這個數(shù)據(jù)集上做了測試(非公開的,Google沒有顯式參加學(xué)術(shù)界的“競賽”)豆瘫,用的也是深度學(xué)習(xí)珊蟀,但識別精度比Geoff Hinton的團(tuán)隊差了很多,這下工業(yè)界振奮了外驱。
如上圖所示育灸,2012年AlexNet的驚艷之處在于,它比上一年冠軍的錯誤率25.8%低了近10個百分點略步。正是這前所未有的進(jìn)步描扯,引領(lǐng)人們穿透迷霧,望見了未來趟薄。
但更有意思的是(很有啟發(fā)性并值得思考)绽诚,Alex Krizhevsky 和 Geoff Hinton的競賽用的正是 Yann Lecun 發(fā)明的卷積神經(jīng)網(wǎng),但結(jié)果剛出來時(實現(xiàn)細(xì)節(jié)還沒有公布)杭煎,Yann Lecun和他的NYU實驗室成員甚至沒法重復(fù)Geoff Hinton的結(jié)果恩够。自己發(fā)明的算法,使用結(jié)果不如另外一個組羡铲。這下炸了鍋蜂桶,Yann Lecun開了組會,反思的主題是“為什么過去兩年我們沒有得到這樣的成績” 也切。
黑馬AlexNet并不“新”扑媚,如上面節(jié)選所說腰湾,它其實脫胎于1998年即14年前就被Lecun提出的卷積神經(jīng)網(wǎng)絡(luò)LeNet-5,改動非常有限:
- 采用ReLU而非S型神經(jīng)元疆股;
- 網(wǎng)絡(luò)更深费坊;
- 訓(xùn)練數(shù)據(jù)量更大;
- 采用GPU訓(xùn)練旬痹;
前兩點與網(wǎng)絡(luò)架構(gòu)相關(guān)附井,雖然ReLU的應(yīng)用貢獻(xiàn)良多,但就整個算法框架來說它們都算不上有實質(zhì)性的改變两残。而后兩點或許才是更根本的永毅,得益于大數(shù)據(jù)和摩爾定律,AlexNet獲得了可以用更多數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò)所需要的算力人弓。
而LeNet-5在當(dāng)時的數(shù)據(jù)與算力條件下沼死,顯然不如其他的機器學(xué)習(xí)算法(核方法、圖模型票从、SVM等)更有前景漫雕,冰封十余載才獲得了認(rèn)可。
神經(jīng)科學(xué)的啟示
就像20世紀(jì)40峰鄙、50年代,受神經(jīng)科學(xué)發(fā)現(xiàn)的啟示太雨,人類構(gòu)建了人工神經(jīng)元一樣吟榴,1959年Hubel和Wiesel對哺乳動物視覺皮層機理的發(fā)現(xiàn),讓人類再次受到造物主的饋贈囊扳,卷積神經(jīng)網(wǎng)絡(luò)就是最成功的應(yīng)用之一吩翻。
哈佛大學(xué)的神經(jīng)生理學(xué)博士Hubel和Wiesel觀察了貓大腦中的單個神經(jīng)元如何響屏幕上的圖像,他們發(fā)現(xiàn)處于視覺系統(tǒng)較前面區(qū)域的神經(jīng)元對特定的光模式反應(yīng)強烈锥咸,而對其他模式完全沒有反應(yīng)狭瞎,這個部分被稱為初級視覺皮層,Primary Visual Cortex搏予,也被稱為V1熊锭。他們憑借這個開創(chuàng)性的研究,在1981年獲得了諾貝爾生理學(xué)或醫(yī)學(xué)獎雪侥。
V1的發(fā)現(xiàn)開啟了對人腦視覺系統(tǒng)進(jìn)一步的認(rèn)知碗殷,如本篇最前面引用的那幅圖中所繪制的,當(dāng)眼睛查看外界對象時速缨,信息從視網(wǎng)膜流到V1锌妻,然后到V2(Secondary Visual Cortex),V4旬牲,之后是IT(Inferior Temporal Gyrus仿粹,顳下回)搁吓。哺乳動物的視覺系統(tǒng)是分層遞進(jìn)的,每一級都比前一級處理更高層次的概念:
- V1:邊緣檢測吭历;
- V2:提取簡單的視覺要素(方向堕仔、空間、頻率毒涧、顏色等)
- V4:監(jiān)測物體的特征贮预;
- TI:物體識別;
卷積神經(jīng)網(wǎng)絡(luò)就是根據(jù)V1的3個性質(zhì)設(shè)計的:
- 空間映射:根據(jù)V1的空間映射特性契讲,卷積神經(jīng)網(wǎng)絡(luò)中的各層都是基于二維空間結(jié)構(gòu)的(末端的全連接層除外)仿吞;
- 簡單細(xì)胞:V1中有許多簡單細(xì)胞(simple cell),它們具有局部感受野捡偏,卷積網(wǎng)絡(luò)中的卷積核據(jù)此設(shè)計唤冈;
- 復(fù)雜細(xì)胞:V1中有許多復(fù)雜細(xì)胞(complex cell),用于響應(yīng)簡單細(xì)胞檢測的特征银伟,且對于微小偏移具有不變形你虹,這啟發(fā)了卷積網(wǎng)絡(luò)中的池化單元;
V1其后的視覺區(qū)域彤避,其實與V1具有相同的原理傅物,特征檢測與池化策略反復(fù)執(zhí)行。同樣琉预,卷積網(wǎng)絡(luò)架構(gòu)的設(shè)計董饰,也是卷積層和池化層重復(fù)疊加,形成深度層級圆米。具有開創(chuàng)性的現(xiàn)代卷積網(wǎng)絡(luò)LeNet-5卒暂,架構(gòu)如下圖所示:
在深度學(xué)習(xí)之前,圖像識別面臨的最大挑戰(zhàn)就是特征工程娄帖,研究者需要根據(jù)自己的經(jīng)驗和洞察也祠、具體場景和領(lǐng)域知識,人為的進(jìn)行特征的設(shè)計和提取近速,之后再進(jìn)行分類的訓(xùn)練诈嘿。而卷積神經(jīng)網(wǎng)絡(luò)自帶特征提取能力,特征學(xué)習(xí)和分類訓(xùn)練一氣呵成数焊,使得網(wǎng)絡(luò)可以直接使用原始的圖像數(shù)據(jù)作為輸入永淌,輸出分類結(jié)果。這種端到端的圖像識別極大的簡化了算法設(shè)計的復(fù)雜度和工作量佩耳。
迂回前進(jìn)的歷史
卷積神經(jīng)網(wǎng)絡(luò)并不是一夜之間發(fā)明出來的遂蛀,從2012年AlexNet開始追溯的話,還需要更多歷史性時刻的支撐干厚,即使是最早的卷積神經(jīng)網(wǎng)絡(luò)出現(xiàn)李滴,也在Hubel和Wiesel實驗的二十年后了螃宙。盡管神經(jīng)科學(xué)給出了啟示,卻并沒有告訴我們該如何訓(xùn)練卷積網(wǎng)絡(luò):
- 1980年所坯,日本科學(xué)家Fukushima構(gòu)建了卷積神經(jīng)網(wǎng)絡(luò)谆扎,但當(dāng)時反向傳播算法還未準(zhǔn)備好;
- 1986年芹助,Hinton成功將反向傳播算法用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)堂湖;
- 1989年,LeCun開始基于反向傳播算法訓(xùn)練二維卷積網(wǎng)絡(luò)状土;
- 1998年无蜂,LeCun提出第一個正式的卷積神經(jīng)網(wǎng)絡(luò)LeNet-5;
歷史就是這樣迂回前進(jìn)的蒙谓,一開始是各個獨立斥季、隨機的小支流,隨著時間的推進(jìn)累驮,最終匯聚在一起產(chǎn)生革命性的時刻酣倾。
上一篇 2 消失的梯度
下一篇 4 拆解CNN架構(gòu)
共享協(xié)議:署名-非商業(yè)性使用-禁止演繹(CC BY-NC-ND 3.0 CN)
轉(zhuǎn)載請注明:作者黑猿大叔(簡書)