內(nèi)容包括:
- AlexNet
- VGG
- NiN
- GoogLeNet
以下幾種都是常用的CNN架構(gòu)
AlexNet
特征:
- 8層變換,其中有5層卷積和2層全連接隱藏層癣朗,以及1個全連接輸出層拾因。
- 將sigmoid激活函數(shù)改成了更加簡單的ReLU激活函數(shù)。
- 用Dropout來控制全連接層的模型復(fù)雜度旷余。
- 引入數(shù)據(jù)增強绢记,如翻轉(zhuǎn)、裁剪和顏色變化正卧,從而進一步擴大數(shù)據(jù)集來緩解過擬合蠢熄。
image
VGG
VGG:通過重復(fù)使?簡單的基礎(chǔ)塊來構(gòu)建深度模型。
Block:數(shù)個相同的填充為1炉旷、窗口形狀為的卷積層,接上一個步幅為2签孔、窗口形狀為的最大池化層。
卷積層保持輸入的高和寬不變砾跃,而池化層則對其減半骏啰。
image
NiN
LeNet、AlexNet和VGG:先以由卷積層構(gòu)成的模塊充分抽取 空間特征抽高,再以由全連接層構(gòu)成的模塊來輸出分類結(jié)果判耕。
NiN:串聯(lián)多個由卷積層和“全連接”層構(gòu)成的小?絡(luò)來構(gòu)建?個深層?絡(luò)。
?了輸出通道數(shù)等于標(biāo)簽類別數(shù)的NiN塊翘骂,然后使?全局平均池化層對每個通道中所有元素求平均并直接?于分類壁熄。
image
GoogLeNet
由Inception基礎(chǔ)塊組成。
Inception塊相當(dāng)于?個有4條線路的??絡(luò)碳竟。它通過不同窗口形狀的卷積層和最?池化層來并?抽取信息草丧,并使?1×1卷積層減少通道數(shù)從而降低模型復(fù)雜度。
可以?定義的超參數(shù)是每個層的輸出通道數(shù),我們以此來控制模型復(fù)雜度。
image