深度學(xué)習(xí) 圖像分類 知識(shí)點(diǎn)

數(shù)據(jù)集

http://deeplearning.net/datasets/
https://www.visualdata.io/
https://github.com/awesomedata/awesome-public-datasets

卷積層

負(fù)責(zé)特征提取

原理

  • RGB三個(gè)通道,或者叫做深度苛蒲。
  • 3D濾波器/卷積核的深度與輸入特征一致,計(jì)算過程是兩個(gè)三維矩陣的點(diǎn)積加上一個(gè)偏置落君,每一個(gè)卷積核對(duì)應(yīng)一個(gè)輸出層。所以輸出有很多層(深度)这溅,每一層捕捉一種局部特征
  • 卷積核需要自學(xué)習(xí)
卷積層圖示啤它,卷積核的數(shù)量是5,即輸出矩陣的厚度是5

卷積原理演示
卷積層操作圖解岛啸,輸入三通道,步長(zhǎng)2茴肥,補(bǔ)零1坚踩,兩個(gè)卷積核

兩個(gè)卷積核
  • 感受野:在卷積神經(jīng)網(wǎng)絡(luò)CNN中,決定某一層輸出結(jié)果中一個(gè)元素所對(duì)應(yīng)的輸入層的區(qū)域大小瓤狐,被稱作感受野receptive field


    image.png

非線性激活函數(shù)

ReLU:分段線性瞬铸,無飽和問題(是為了解決Sigmoid函數(shù)帶來的梯度消失問題)
激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中的功能即通過對(duì)加權(quán)的輸入進(jìn)行非線性組合產(chǎn)生非線性決策邊界


ReLU

池化層

特征融合,尺寸降維

最大化池化樣例

池化層反向傳播

全連接層

負(fù)責(zé)推斷
相當(dāng)于K個(gè)全局卷積础锐,K是分類的數(shù)量嗓节。
有全連接層的結(jié)構(gòu)輸入圖像的尺寸必須是固定的,因?yàn)樽詈笠粋€(gè)卷積層的輸出到第一個(gè)全連接層的卷積核的大小是固定的郁稍。
理解全連接層好文
例如經(jīng)過卷積赦政,relu后得到3x3x5的輸出胜宇。
那它是怎么樣把3x3x5的輸出耀怜,轉(zhuǎn)換成1x4096的形式恢着?

全連接

從上圖我們可以看出,我們用一個(gè)3x3x5的filter 去卷積激活函數(shù)的輸出财破,得到的結(jié)果就是一個(gè)fully connected layer 的一個(gè)神經(jīng)元的輸出掰派,這個(gè)輸出就是一個(gè)值。因?yàn)槲覀冇?096個(gè)神經(jīng)元左痢。我們實(shí)際就是用一個(gè)3x3x5x4096的卷積層去卷積激活函數(shù)的輸出靡羡。
全連接的作用

從上圖我們可以看出,貓?jiān)诓煌奈恢每⌒裕敵龅膄eature值相同略步,但是位置不同。
對(duì)于電腦來說定页,特征值相同趟薄,但是特征值位置不同,那分類結(jié)果也可能不一樣典徊。
這時(shí)全連接層filter的作用就相當(dāng)于喵在哪我不管杭煎,我只要喵,于是我讓filter去把這個(gè)喵找到卒落,實(shí)際就是把feature map 整合成一個(gè)值羡铲,這個(gè)值大,有喵儡毕,這個(gè)值小也切,那就可能沒喵和這個(gè)喵在哪關(guān)系不大了,魯棒性有大大增強(qiáng)腰湾。
因?yàn)榭臻g結(jié)構(gòu)特性被忽略了贾费,所以全連接層不適合用于在方位上找Pattern的任務(wù),比如segmentation檐盟。

歸一化層

Softmax 折算成概率
取log后褂萧,用于構(gòu)建loss

工程技巧

CNN中卷積操作十大改進(jìn)方向(Depth-wise/ Dilated/ Deformable/ Shuffle/ SENet etc)

圖像像素中心化(均值處理)

每個(gè)通道上每個(gè)像素的灰度值減去各自通道的均值

歸一化

./255

大小調(diào)整

resize

數(shù)據(jù)增強(qiáng)

每張圖片變成10張

dropout

隨機(jī)失活,用于防止過擬合葵萎。訓(xùn)練中隨機(jī)讓一些神經(jīng)元的輸出為0导犹,失活率一般設(shè)置為0.5。用于全連接層羡忘。

Weight Decay

權(quán)重衰減 L2正則 抑制每個(gè)權(quán)重的作用

基于已有模型方案
  • fine-tune
  • 設(shè)計(jì)損失函數(shù)
  • 激活函數(shù)
  • 圖像預(yù)處理
  • 權(quán)值初始化
  • BN
訓(xùn)練細(xì)節(jié)
  • Batch size
  • 數(shù)據(jù)平衡性(擴(kuò)充補(bǔ)償)
  • 關(guān)注感受野
熱力圖

https://blog.csdn.net/Einstellung/article/details/82858974?utm_source=blogxgwz9
http://seaborn.pydata.org/generated/seaborn.heatmap.html
http://bokeh.pydata.org/en/0.10.0/docs/gallery/cat_heatmap_chart.html

AlexNet

CNN網(wǎng)絡(luò)架構(gòu)演進(jìn):從LeNet到DenseNet
AlexNet論文翻譯對(duì)照
5 卷積層+3全連接層 + ReLU + MaxPool + Dropout

LRN - Local Response Normalization
跨通道方向上的歸一化
n為領(lǐng)域值谎痢,N為通道數(shù)


LRN

Network-in-network (NiN) (bottleneck layer)
1x1的卷積層
特征降維

loss function 用的交叉熵 ,因?yàn)閟oftmax的輸出是概率分布

VGG

大卷積分解成多個(gè)小卷積卷雕,為了減少參數(shù)节猿,降低計(jì)算,增加網(wǎng)絡(luò)深度
7x7 -> 3個(gè)3x3
網(wǎng)絡(luò)改造的首選
19層的效果最好

GoogLeNet

增加寬度、深度滨嘱,減少參數(shù)峰鄙,降低計(jì)算
Google Inception Net論文細(xì)讀

Inception v1
  • Split-Merge
    1x1 3x3 5x5 3x3池化
    最后對(duì)四個(gè)成分運(yùn)算結(jié)果進(jìn)行通道上組合。
    但是如果簡(jiǎn)單的將這些應(yīng)用到feature map上的話太雨,concat起來的feature map厚度將會(huì)很大吟榴,所以在googlenet中為了避免這一現(xiàn)象提出的inception具有如下結(jié)構(gòu)赞辩,在3x3前蛾派,5x5前,max pooling后分別加上了1x1的卷積核起到了降低feature map厚度的作用骨坑。
    增加對(duì)多尺度的適應(yīng)锥咸,增加網(wǎng)絡(luò)寬度

  • 取消全連接
    由全局平均池化代替
    輸入7x7x1024
    輸出 1x1x1024 (其實(shí)就是每個(gè)通道取平均值狭瞎,將N個(gè)feature map降維成1N大小的feature map,再用class個(gè)11卷積核將1N的feature map卷成1class的向量)

  • 輔助分類器
    解決前幾層的梯度消失問題搏予,幫助收斂
    測(cè)試階段不使用


    Inception v1

其他:關(guān)于+1(S) +1(V)
V stands for a 'valid' convolution (output size = input size - filter size + 1), and S stands for a 'same' convolution (output size = input size). -> border_mode

Inception v2
  • Batch Normalization (BN批歸一化)
    在每一層輸出的時(shí)候脚作,針對(duì)每一個(gè)通道上的特征圖,把這一批次所有的特征圖求平均值和方差缔刹,然后把所有像素上的值減去均值球涛,除以方差。這一步是算出來的校镐。
    配對(duì)使用一個(gè)Scale和shift亿扁。這一步的參數(shù)是學(xué)出來的。
    一般是用在Activation之前鸟廓。
    解決Internal Covariate Shift問題


    Internal Covariate Shift

白化:使每一層的輸出都規(guī)范化到N(0,1)
BN博文
視頻學(xué)習(xí)

BN示意圖

訓(xùn)練階段vs測(cè)試階段

  • 5x5 變成兩個(gè)3x3


Inception v3
  • 非對(duì)稱卷積 NxN分解成1xN 和 Nx1


    V3核心組件
  • 降尺寸前增加特征通道


    320先變成640从祝,再降維
  • 取消淺層的輔助分類器
    實(shí)驗(yàn)證明 完全無用

工程成本很大,因?yàn)槊恳粚佑玫慕Y(jié)構(gòu)不一樣

Inception v4
  • 引入殘差


    v4

ResNet

直連 skip/shortcut connection
F(x)是殘差映射引谜,H(x)的梯度保證>1
推薦博文

ResNet

  • 步長(zhǎng)為2的卷積代替池化

Wide-ResNet

https://arxiv.org/pdf/1605.07146v4.pdf

ResNet in Stochastic Depth

https://arxiv.org/pdf/1603.09382.pdf

每個(gè)ResNet block 有一定概率隨機(jī)失活
很神奇的是測(cè)試正確率會(huì)更高

ResNeXt

  • 提出第三個(gè)DNN維度cardinality


    ResNeXt

SqueezeNet

https://arxiv.org/pdf/1602.07360.pdf
https://blog.csdn.net/csdnldp/article/details/78648543
Fire Module

ShuffleNet

https://arxiv.org/pdf/1707.01083.pdf
Group conv
論文解讀

Groupwise convolution + shuffle的這種組合對(duì)傳統(tǒng)1x1 conv bottleneck模塊的代替使用

DenseNet

推薦博文
https://arxiv.org/pdf/1608.06993.pdf

MobileNet

論文
Depthwise Convolution 牍陌,Pointwise Convolution

精髓

PolyNet

推薦博文

SENet

推薦博文

AmoebaNet

推薦博文

ShuffleNet

https://arxiv.org/pdf/1707.01083.pdf

GPIPE

CNN設(shè)計(jì)原則

感受野要大


分組策略
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市员咽,隨后出現(xiàn)的幾起案子毒涧,更是在濱河造成了極大的恐慌,老刑警劉巖贝室,帶你破解...
    沈念sama閱讀 222,000評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件契讲,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡滑频,警方通過查閱死者的電腦和手機(jī)捡偏,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,745評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來峡迷,“玉大人银伟,你說我怎么就攤上這事。” “怎么了彤避?”我有些...
    開封第一講書人閱讀 168,561評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵傅物,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我忠藤,道長(zhǎng)挟伙,這世上最難降的妖魔是什么楼雹? 我笑而不...
    開封第一講書人閱讀 59,782評(píng)論 1 298
  • 正文 為了忘掉前任模孩,我火速辦了婚禮,結(jié)果婚禮上贮缅,老公的妹妹穿的比我還像新娘榨咐。我一直安慰自己,他們只是感情好谴供,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,798評(píng)論 6 397
  • 文/花漫 我一把揭開白布块茁。 她就那樣靜靜地躺著,像睡著了一般桂肌。 火紅的嫁衣襯著肌膚如雪数焊。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 52,394評(píng)論 1 310
  • 那天崎场,我揣著相機(jī)與錄音佩耳,去河邊找鬼。 笑死谭跨,一個(gè)胖子當(dāng)著我的面吹牛干厚,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播螃宙,決...
    沈念sama閱讀 40,952評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼蛮瞄,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了谆扎?” 一聲冷哼從身側(cè)響起挂捅,我...
    開封第一講書人閱讀 39,852評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎堂湖,沒想到半個(gè)月后籍凝,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,409評(píng)論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡苗缩,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,483評(píng)論 3 341
  • 正文 我和宋清朗相戀三年饵蒂,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片酱讶。...
    茶點(diǎn)故事閱讀 40,615評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡退盯,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情渊迁,我是刑警寧澤慰照,帶...
    沈念sama閱讀 36,303評(píng)論 5 350
  • 正文 年R本政府宣布,位于F島的核電站琉朽,受9級(jí)特大地震影響毒租,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜箱叁,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,979評(píng)論 3 334
  • 文/蒙蒙 一墅垮、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧耕漱,春花似錦算色、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,470評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至妓笙,卻和暖如春若河,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背寞宫。 一陣腳步聲響...
    開封第一講書人閱讀 33,571評(píng)論 1 272
  • 我被黑心中介騙來泰國(guó)打工萧福, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人淆九。 一個(gè)月前我還...
    沈念sama閱讀 49,041評(píng)論 3 377
  • 正文 我出身青樓统锤,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親炭庙。 傳聞我的和親對(duì)象是個(gè)殘疾皇子饲窿,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,630評(píng)論 2 359