一阻肿、CNN模型
CNN,又稱卷積神經(jīng)網(wǎng)絡(luò)沮尿,它是一種前饋的神經(jīng)網(wǎng)絡(luò)丛塌,在圖像識別領(lǐng)域有著巨大的應(yīng)用较解。
二、如何理解卷積神經(jīng)網(wǎng)絡(luò)赴邻?
1 卷積
如圖1所示印衔,圖中的X和O無論怎么旋轉(zhuǎn)或者縮放,我們?nèi)搜燮鋵嵾€是很容易識別出X和0姥敛。
但是計算機不一樣奸焙,它看到的其實是一個個的像素陣列,如圖2彤敛。如何對像素的陣列進行特征的提取其實就是卷積神經(jīng)網(wǎng)絡(luò)要干的事情与帆。
再看圖3,我們發(fā)現(xiàn)X即使進行了旋轉(zhuǎn)臊泌,但是綠鲤桥、橙、紫框標記的區(qū)域在兩張圖中還是一致的渠概,某種程度上茶凳,這其實就是X的特征。因此可以將這三個特征的區(qū)間提取出來播揪,就形成了三個卷積核贮喧,如圖4所示。
既然有了卷積核猪狈,那么卷積核是如何進行卷積操作的呢箱沦?
其實很簡單,可以看一下圖5雇庙,卷積核其實就是拿著這個矩陣在圖片的矩陣上一點點的平移谓形,就像掃地一樣。每掃到一處地方就可以進行卷積的運算疆前,計算方法很簡單寒跳,如圖5所示,左上角的卷積核掃到綠色框的位置竹椒,則卷積核矩陣的數(shù)字就和掃到的位置的矩陣的數(shù)字一一對應(yīng)相乘然后相加童太,最后取一個均值,該值就是卷積核提取的特征胸完,卷積核提取的所有的特征組成了一個長和寬變小的矩陣书释,這個矩陣又稱為feature map,如圖6赊窥。使用不同的卷積核也就能提取出不同的feature map爆惧。所以可以想象的是,如果不斷的進行卷積操作锨能,那么圖片的矩陣會逐步地長寬減少检激,厚度增加肴捉。
可以看到卷積操作通過卷積核是可以分別提取到圖片的特征的,但是如何提前知道卷積核呢叔收?像圖片中X的例子,我們其實很容易可以找到3個卷積核傲隶,但是假如是人臉識別這樣成千上萬個特征的圖片饺律,你就沒辦法提前知道什么是合適的卷積核。所以其實也沒必要知道跺株,因為選擇什么樣的卷積核复濒,完全可以通過訓練不斷優(yōu)化。初始時只需要隨機設(shè)置一些卷積核乒省,通過訓練巧颈,模型其實自己可以學習到合適的卷積核,這也是卷積神經(jīng)網(wǎng)絡(luò)模型強大的地方袖扛。
2 池化(pooling)
池化砸泛,也叫下采樣,本質(zhì)上其實就是對數(shù)據(jù)進行一個縮小蛆封。因為我們知道唇礁,比如人臉識別,通過卷積操作得到成千上萬個feature map惨篱,每個feature map也有很多的像素點盏筐,這些對于后續(xù)的運算的時間會變得很長。
池化其實就是對每個feature map進一步提煉的過程砸讳。如圖7所示琢融,原來4X4的feature map經(jīng)過池化操作之后就變成了更小的2*2的矩陣。池化的方法包括max pooling簿寂,即取最大值漾抬,以及average pooling,即取平均值陶耍。
3. Normalization
這里的Normalization就是將矩陣中負數(shù)的值轉(zhuǎn)成0,也就是使用一個稱之為ReLu的激活函數(shù)進行負數(shù)變?yōu)?的操作奋蔚。ReLu函數(shù)本質(zhì)上就是max(0,x)烈钞。這一步其實也是為了方便運算泊碑。
4. 卷積神經(jīng)網(wǎng)絡(luò)理解
因此卷積、ReLu毯欣、pooling馒过,不斷重復其實也就基本上構(gòu)成了卷積神經(jīng)網(wǎng)絡(luò)的框架,如圖8酗钞。然后將最終得到的feaure map 排成一列(圖8)腹忽,接到全連接層来累,這樣就形成了我們的卷積神經(jīng)網(wǎng)絡(luò)。值得注意的是窘奏,排成一列的數(shù)值嘹锁,是有權(quán)重,而這些權(quán)重是通過訓練着裹、反向傳播得到的领猾,通過權(quán)重的計算,可以知道不同分類的概率是怎么樣的骇扇。
三摔竿、理解baseline代碼
baseline中使用的是resnet模型,這實際上是一種通過殘差學習的CNN特征提取網(wǎng)絡(luò)少孝。為了方便继低,baseline中直接使用了這個預(yù)訓練模型,當然這個肯定是可以改的稍走。
forward其實就是一個變平的操作袁翁,通過feat.view(feat.shape[0], -1)實現(xiàn)
fc1~fc5是五個字符的輸出
class SVHN_Model1(nn.Module):
def __init__(self):
super(SVHN_Model1, self).__init__()
model_conv = models.resnet18(pretrained=True)
model_conv.avgpool = nn.AdaptiveAvgPool2d(1)
model_conv = nn.Sequential(*list(model_conv.children())[:-1])
self.cnn = model_conv
self.fc1 = nn.Linear(512, 11)
self.fc2 = nn.Linear(512, 11)
self.fc3 = nn.Linear(512, 11)
self.fc4 = nn.Linear(512, 11)
self.fc5 = nn.Linear(512, 11)
def forward(self, img):
feat = self.cnn(img)
# print(feat.shape)
feat = feat.view(feat.shape[0], -1)
c1 = self.fc1(feat)
c2 = self.fc2(feat)
c3 = self.fc3(feat)
c4 = self.fc4(feat)
c5 = self.fc5(feat)
return c1, c2, c3, c4, c5