深度神經網絡的缺陷
我們知道在設計神經網絡時最保險的就是增加網絡的深度和寬度瘾蛋,增加深度就是要設計更多的網絡層數,增加寬度就是增加卷積核的個數努释。但是網絡越深越寬容易出現兩個缺陷:
- 參數太多渠驼,在訓練數據集有限的情況下容易出現過擬合
- 網絡越大,計算復雜度越高
GoogLeNet就是在保證神經網絡的深度和寬度的情況下有效的減少參數個數曾沈,從而實現一個高效的網絡結構。決定其高效性能的重要組成結構有三個鸥昏,分別是:
- 1x1卷積核
- 初始化模塊:赫布規(guī)則
- 全局平均匯集
這里只討論1x1卷積核的作用塞俱,其他結構待后續(xù)會說明。而要說到1x1卷積核的作用還要從特征圖說起吏垮。
特征圖映射太多的問題
如圖障涯,如果使用個
的卷積核罐旗,可以獲得
個單獨的特征圖,而這些特征圖的尺寸是
唯蝶,特征圖的數據量只跟卷積核的數量有關跟原始圖像的通道(channel)無關九秀。
我們知道,在設計神經網絡時粘我,卷積核的數量會隨著層數的增加會越來越多鼓蜒,這樣會導致神經網絡的深層原始圖像經過大量的卷積核卷積后其特征圖數量也會急劇增加。而池化層并不會改變模型中卷積核的數量征字,也就不會改變輸出特征圖的數量都弹。所以,需要一種類似池化層的裝置來減少特征圖的深度(數量)匙姜。
1x1卷積核卷積過程
可以由圖看到畅厢,的卷積核并沒有改變原始特征圖的長和高,只是改變了特征圖的數量氮昧,在某種程度上來說如果
除了有降維作用還有減少運算量的作用袖肥,如圖不使用卷積核時的運算量與使用后的運算量的對比霸琴。