基于pytorch的CNN計(jì)算簡介

1. CNN簡介

本文主要介紹利用pytorch對CNN的計(jì)算有一個(gè)直觀的認(rèn)識,在此認(rèn)為你已經(jīng)對CNN有了一些理解憔四,但是對如何計(jì)算還有一些迷糊。
卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)一般用在圖像處理領(lǐng)域篙螟,優(yōu)化了全連接神經(jīng)網(wǎng)絡(luò)的參數(shù)過多問題览闰。CNN的結(jié)構(gòu)圖如下所示芯肤,一個(gè)卷積神經(jīng)網(wǎng)絡(luò)由若干卷積層、Pooling層压鉴、全連接層組成崖咨。常用的架構(gòu)模式為:
INPUT -> [[conv]*N -> Pooling?]*M -> [FC]*K
其中Pooling層不一定要有,參考如下的架構(gòu)圖油吭。關(guān)于CNN的細(xì)節(jié)不做太多介紹击蹲,具體可以參考這篇文章

卷積圖.png

2. pytorch計(jì)算卷積CNN

2.1 pytorch的cnn實(shí)現(xiàn)函數(shù)介紹

首先介紹一下pytorch實(shí)現(xiàn)cnn的函數(shù)
class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)

  • in_channels, out_channels為輸入輸出信號的通道婉宰;
  • kernel_size為卷積核的大小歌豺,可以為int or (height, width),int時(shí)表示卷積核是高寬相等的心包,為touple表示卷積核的高度和寬度不相等类咧;
  • stride 同樣可以為int or touple,參考kernel_size谴咸,卷積步長高度和寬度兩個(gè)方向不等時(shí)候轮听,采用touple;
  • padding int or (height, width) 輸入的每一條邊補(bǔ)充0的層數(shù)岭佳;
  • dilation(int or tuple, `optional``) – 卷積核元素之間的間距血巍,默認(rèn)為1,為2時(shí)候珊随,卷積核元素之間的間距拉大述寡,相當(dāng)于放大了卷積核看到的區(qū)域;
  • bias bias為True叶洞,添加偏置鲫凶;
  • groups(int, optional) – 從輸入通道到輸出通道的阻塞連接數(shù)
    舉個(gè)例子:
import torch as t
from torch import nn
m = nn.Conv2d(in_channels=8,out_channels=3,kernel_size= 3)
input = t.randn(10, 8,5,5 )
output = m(input)
output.shape
>>>
torch.Size([10, 2, 3, 3])

這里的input為batch10衩辟,深度為8螟炫,高度和寬度都為5的三維矩陣(在此解釋一下,明明是3維矩陣艺晴,卻為啥是conv2d昼钻,二維的呢,個(gè)人理解是封寞,這里的2d是針對有高度和寬度然评,卷積核在這兩個(gè)方向上移動,所以雖然輸入的是三維矩陣狈究,但是只在兩個(gè)方向上移動碗淌,所以是Conv2d)。通過卷積核為355的卷積核后,output的高度和寬度為3(5-3+1)亿眠。
卷積變換的高度和寬度的計(jì)算公式為:
W_2 = (W_1-F+2P)/S+1 \\H_2 = (H_1-F+2P)/S+1
其中W_2為卷積變換之后的高度碎罚,F為卷積核的寬度,P為補(bǔ)0的圈數(shù)缕探。

2.2 理解卷積的計(jì)算方法

卷積神經(jīng)網(wǎng)絡(luò)是如何計(jì)算的呢魂莫,下面是一張非常經(jīng)典的圖,input是一個(gè)深度為3的7*7的數(shù)據(jù)爹耗,2channel的filter,filter的深度要和input的深度 一致谜喊,因此CNN輸出矩陣的大小和filter有如下規(guī)范:

  • filter 的深度要和input的深度一致潭兽;
  • 卷積神經(jīng)網(wǎng)絡(luò)的輸出的channel是由filter的channel數(shù)決定的;
  • 輸出的高度和寬度由卷積核的高度和寬度斗遏、卷積的步長straddle山卦、補(bǔ)零padding的圈數(shù)決定的;
    卷積的計(jì)算方法可以參考下方的動態(tài)圖诵次,畫的非常清晰账蓉,filter和input做element-wise的相乘,不同層之間進(jìn)行求和逾一,最后加上bias铸本,得到output。
2256672-958f31b01695b085.gif

接下來遵堵,我們再繼續(xù)使用pytorch實(shí)踐一下計(jì)算過程:

import torch.nn.functional as f
input = t.randn(1,3,3,3) # 輸入為batch為2箱玷,深度為2的3*3矩陣
filter1 = t.randn(2,3,2,2) # 卷積核即filter為(3,2,2,2),即channel為3陌宿,卷積核的深度為2锡足,高寬為2*2
o1 = f.conv2d(input, filter1,stride=1) #因此輸出的維度為(2,3,2,2)
input
>>>
Out[18]:
tensor([[[[-0.1759, -0.3417,  1.4123],
          [-1.6696,  0.9701, -2.3805],
          [-0.7241, -0.2209, -0.8992]],

         [[-1.3623,  0.8210,  0.7222],
          [ 0.5904,  0.0083, -1.5792],
          [ 0.3217, -0.8068,  0.7589]],

         [[-0.5402,  1.2805,  0.7455],
          [-0.8920, -1.0816,  1.1012],
          [-0.0124, -1.6899,  1.2731]]]])
filter1
>>>
tensor([[[[-1.8587e+00,  1.2517e+00],
          [-6.4202e-01,  5.6213e-01]],

         [[-2.1839e-01, -1.9386e-01],
          [ 7.2792e-01, -1.9432e+00]],

         [[-1.7671e+00, -1.4224e+00],
          [-1.5365e+00, -1.1106e+00]]],


        [[[ 1.8957e+00,  5.6250e-01],
          [-1.9311e+00, -8.1737e-02]],

         [[ 7.7985e-01, -1.3875e-01],
          [-8.8998e-01, -1.1328e+00]],

         [[ 5.6669e-01, -1.1629e+00],
          [ 3.2056e-01, -7.1626e-04]]]])
o1
>>>
Out[19]:
tensor([[[[ 3.7735,  0.3129],
          [11.3403, -5.3765]],

         [[-1.1724,  0.3006],
          [ 0.6336, -1.3521]]]])

如上可以看到第一個(gè)元素o1[0,0,0,0]是3.7735,接下來我們?nèi)巳庥?jì)算一下第一個(gè)元素:

import torch as t
t.sum(input[0,:,0:2,0:2]*filter1[0,:,:,:])
>>>
out[20]
tensor(3.7735)

結(jié)果和利用nn.functional.Conv2d計(jì)算出的結(jié)果一致壳坪。
nn.Conv2d和nn.functional.Conv2很相似舶得,但是在構(gòu)建模型的時(shí)候一般采用nn.Conv2d來實(shí)現(xiàn)。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末爽蝴,一起剝皮案震驚了整個(gè)濱河市沐批,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌霜瘪,老刑警劉巖珠插,帶你破解...
    沈念sama閱讀 216,651評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異颖对,居然都是意外死亡捻撑,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,468評論 3 392
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來顾患,“玉大人番捂,你說我怎么就攤上這事〗猓” “怎么了设预?”我有些...
    開封第一講書人閱讀 162,931評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長犁河。 經(jīng)常有香客問我鳖枕,道長,這世上最難降的妖魔是什么桨螺? 我笑而不...
    開封第一講書人閱讀 58,218評論 1 292
  • 正文 為了忘掉前任宾符,我火速辦了婚禮,結(jié)果婚禮上灭翔,老公的妹妹穿的比我還像新娘魏烫。我一直安慰自己,他們只是感情好肝箱,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,234評論 6 388
  • 文/花漫 我一把揭開白布哄褒。 她就那樣靜靜地躺著,像睡著了一般煌张。 火紅的嫁衣襯著肌膚如雪呐赡。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,198評論 1 299
  • 那天唱矛,我揣著相機(jī)與錄音罚舱,去河邊找鬼。 笑死绎谦,一個(gè)胖子當(dāng)著我的面吹牛管闷,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播窃肠,決...
    沈念sama閱讀 40,084評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼包个,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了冤留?” 一聲冷哼從身側(cè)響起碧囊,我...
    開封第一講書人閱讀 38,926評論 0 274
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎纤怒,沒想到半個(gè)月后糯而,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,341評論 1 311
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡泊窘,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,563評論 2 333
  • 正文 我和宋清朗相戀三年熄驼,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了像寒。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,731評論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡瓜贾,死狀恐怖诺祸,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情祭芦,我是刑警寧澤筷笨,帶...
    沈念sama閱讀 35,430評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站龟劲,受9級特大地震影響胃夏,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜昌跌,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,036評論 3 326
  • 文/蒙蒙 一构订、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧避矢,春花似錦、人聲如沸囊榜。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,676評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽卸勺。三九已至砂沛,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間曙求,已是汗流浹背碍庵。 一陣腳步聲響...
    開封第一講書人閱讀 32,829評論 1 269
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留悟狱,地道東北人静浴。 一個(gè)月前我還...
    沈念sama閱讀 47,743評論 2 368
  • 正文 我出身青樓,卻偏偏與公主長得像挤渐,于是被迫代替她去往敵國和親苹享。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,629評論 2 354