卷積的公式解釋?
1.關于卷積
s(t)=(x*w)(t) ? ? 這里的x是input w是kernel函數 ?如果傳入的x是幾維,那么kerne也是幾維(不是向量的維度)
為什么卷積在定義時會對w發(fā)生翻轉
2.k卷積過程
每個kernel就是一個濾波器狐胎。當用一個kernel做卷積處理時躏吊,其實是用它來識別某種特定曲線罐氨。當得到的激活值在某一區(qū)域最大時,就得到了激活圖(包含這一特定曲線的一些區(qū)域合成的圖像)。一個kernel作卷積輸出的就是一張圖窗价。
卷積神經網絡的第一層濾波器用來檢測低階特征捌刮,比如邊角曲線碰煌。第二層的輸入就是第一層的輸出,這一層的濾波器就是用來檢驗低階特征的組合的情況绅作。如此累積芦圾,從而識別更復雜的特征。
初始時的kernel是隨機的俄认,然后經過訓練个少,誤差反饋不斷修改kernel的權值洪乍。
3.polling池化層
對特征圖進行縮小。如用filter去取得每塊區(qū)域的最大值或平均值作為這塊區(qū)域新的特征稍算。這樣做可以減少參數典尾,并且防止和過擬合。
CNN的三個特點:
1.sparse connectivity(后一層的輸出只被前一層的幾個輸出影響)
優(yōu)點:減少了運算量
2.Parameter sharing
一個filter在對整個圖像的不同區(qū)域進行操作時的權值都是相同的
因為特征與物體的空間位置無關糊探,即實現(xiàn)旋轉钾埂、平移、縮放的不變性科平,這對于在圖像識別領域經常出的物體在圖像中的位置變化褥紫,大小變化,觀察角度變化瞪慧,所造成了識別困難髓考,具有非常好的解決效果。同時弃酌,由于權值共享氨菇,減少了網絡的參數個數,也大提高了網絡的學習效率
3妓湘。卷積的等變形 equvariance
卷積網絡中的更深層次單元的感受域(receptive field)比淺層單元的感受域(receptive field)要大查蓉。如果網絡包含了像條紋卷積(strided convolution)(圖9.12)或是池化(pooing)(圖9.3)這樣的架構特征,這種效應就會增加榜贴。意思就是即使在一個卷積網絡中直接連接是非常稀疏的豌研,但是更深的層次可以間接的連接所有或者說是大部分輸入圖像。
stride and padding(步伐與填充)
步伐就是filer每次移動的寬度
現(xiàn)在讓我們看一下填充(padding)唬党。在此之前鹃共,想象一個場景:當你把 5 x 5 x 3 的過濾器用在 32 x 32 x 3 的輸入上時,會發(fā)生什么驶拱?輸出的大小會是 28 x 28 x 3霜浴。注意,這里空間維度減小了屯烦。如果我們繼續(xù)用卷積層坷随,尺寸減小的速度就會超過我們的期望。在網絡的早期層中驻龟,我們想要盡可能多地保留原始輸入內容的信息温眉,這樣我們就能提取出那些低層的特征。比如說我們想要應用同樣的卷積層翁狐,但又想讓輸出量維持為 32 x 32 x 3 类溢。為做到這點,我們可以對這個層應用大小為 2 的零填充(zero padding)。