shufflenet v1筆記

group Convolution

在普通的卷積中,channels 即同一個(gè)卷積對(duì)所有的channels操作,然后相加.
而group convolution,即簡單的講就是把 channel 做N等分(N個(gè)group)奶躯,然后每一份(一個(gè)group)分別與上一層的輸出的M/N個(gè)channel獨(dú)立連接帚桩,之后將每個(gè)group的輸出疊在一起(concatenate),作為這一層的輸出 channel.

group conv最早出現(xiàn)在AlexNet[1]中嘹黔,因?yàn)轱@卡顯存不夠账嚎,只好把網(wǎng)絡(luò)分在兩塊卡里.

mobilenet v1 中的depthwise convolution操作其實(shí)是每一個(gè)channel都為一個(gè)group的特殊情況

shufflenet

Channel Shuffle

介于每個(gè)channel都用單獨(dú)一個(gè)卷積 (Pointwise convolution)or 所有通道共用一個(gè)卷積(傳統(tǒng)卷積).

Channel Shuffle 提出了將channel 分組,然后僅在分組內(nèi)進(jìn)行Pointwise卷積.

但是,如果多個(gè)組卷積疊加在一起,則會(huì)產(chǎn)生一個(gè)副作用:某個(gè)通道的輸出僅來自一小部分輸入通道郭蕉。如圖(a)所示.該組的輸出僅與該組內(nèi)的輸入有關(guān),阻礙了通道間的信息流.

如果我們?cè)试Sgroup convolution 從不同的channel中獲取信息(如圖b所示),則輸入通道和輸出通道信息完全相關(guān)

shufflenet用 channel shuffle 來實(shí)現(xiàn)這一效果(如圖c)


image

具體做法:
假設(shè)一個(gè)卷積層有g X n個(gè)輸出channel(g 個(gè)group),

  • (1)先將輸出通道reshape維度為(g,n)
  • (2)transpose:將通道信息變?yōu)?img class="math-inline" src="https://math.jianshu.com/math?formula=(n%2Cg)" alt="(n,g)" mathimg="1">,通道信息隨機(jī)變換
  • (3)reshape,將通道恢復(fù)原來的shape

在transpose過程中進(jìn)行了通道混亂

pytroch 代碼如圖:

def shuffle_channels(x, groups):
    """shuffle channels of a 4-D Tensor"""
    batch_size, channels, height, width = x.size()
    assert channels % groups == 0
    channels_per_group = channels // groups
    # split into groups
    
    x = x.view(batch_size, groups, channels_per_group,
               height, width)
    # transpose 1, 2 axis
    x = x.transpose(1, 2).contiguous()
    # reshape into orignal
    x = x.view(batch_size, channels, height, width)
    return x

shufflenet v1 bottleneck

shuffle net的組件如圖所示:

image

(b)代表了stride 為 1 ,
(c)stride 為2

image
import  torch
import  torch.nn as nn
import torch.nn.functional as F
def shuffle_channels(x, groups):
    """shuffle channels of a 4-D Tensor"""
    batch_size, channels, height, width = x.size()
    assert channels % groups == 0
    channels_per_group = channels // groups
    # split into groups

    x = x.view(batch_size, groups, channels_per_group,
               height, width)
    # transpose 1, 2 axis
    x = x.transpose(1, 2).contiguous()
    # reshape into orignal
    x = x.view(batch_size, channels, height, width)
    return x

class ShuffleBottleNeck(nn.Module):
    def __init__(self,in_channels,out_channels,stride,groups):
        super(ShuffleBottleNeck,self).__init__()

        self.stride = stride
        self.groups = groups
        # bottleneck層中間層的channel數(shù)變?yōu)檩敵鯿hannel數(shù)的1/4
        #we set the number of bottleneck channels to 1/4 of the output channels for each ShuffleNetunit.
        mid_channels = int(out_channels / 4)

        set_groups = groups if in_channels!=24 else 1
        # 作者提到不在stage2的第一個(gè)pointwise層使用組卷積,因?yàn)檩斎隿hannel數(shù)量太少,只有24
        self.conv1 = nn.Conv2d(in_channels,mid_channels,kernel_size=1,
                               groups=set_groups,bias=False)
        self.bn1 = nn.BatchNorm2d(mid_channels)

        self.conv2 = nn.Conv2d(mid_channels,mid_channels,kernel_size=3,
                               groups=mid_channels,padding=1,stride=stride,
                               bias=False)
        self.bn2 = nn.BatchNorm2d(mid_channels)

        self.conv3 = nn.Conv2d(mid_channels,out_channels,kernel_size=1,
                               groups=groups,bias=False)
        self.bn3 = nn.BatchNorm2d(out_channels)

        self.shortcut = nn.Sequential()
        if stride ==2:
            self.shortcut = nn.Sequential(nn.AvgPool2d(3,stride=2,padding=1))
    def forward(self, x):
        out = torch.nn.functional.relu(self.bn1(self.conv1(x)))
        out = shuffle_channels(out,self.groups)
        out = self.bn2(self.conv2(out))
        out = self.bn3(self.conv3(out))
        res = self.shortcut(x)
        out = F.relu(torch.cat([out, res], 1)) if self.stride == 2 else F.relu(out + res)
        return out


class ShuffleNet(nn.Module):
    def __init__(self, cfg):
        super(ShuffleNet, self).__init__()
        out_planes = cfg['out_planes']
        num_blocks = cfg['num_blocks']
        groups = cfg['groups']

        self.conv1 = nn.Conv2d(3, 24, kernel_size=1, bias=False)
        self.bn1 = nn.BatchNorm2d(24)
        self.in_planes = 24
        self.layer1 = self._make_layer(out_planes[0], num_blocks[0], groups)
        self.layer2 = self._make_layer(out_planes[1], num_blocks[1], groups)
        self.layer3 = self._make_layer(out_planes[2], num_blocks[2], groups)
        self.linear = nn.Linear(out_planes[2], 10)

    def _make_layer(self, out_planes, num_blocks, groups):
        layers = []
        for i in range(num_blocks):
            if i == 0:
                layers.append(ShuffleBottleNeck(self.in_planes,
                                         out_planes-self.in_planes,
                                         stride=2, groups=groups))
            else:
                layers.append(ShuffleBottleNeck(self.in_planes,
                                         out_planes,
                                         stride=1, groups=groups))
            self.in_planes = out_planes
        return nn.Sequential(*layers)

    def forward(self, x):
        out = F.relu(self.bn1(self.conv1(x)))
        out = self.layer1(out)
        out = self.layer2(out)
        out = self.layer3(out)
        out = F.avg_pool2d(out, 4)
        out = out.view(out.size(0), -1)
        out = self.linear(out)
        return out


def ShuffleNetG2():
    cfg = {
        'out_planes': [200,400,800],
        'num_blocks': [4,8,4],
        'groups': 2
    }
    return ShuffleNet(cfg)

def ShuffleNetG3():
    cfg = {
        'out_planes': [240,480,960],
        'num_blocks': [4,8,4],
        'groups': 3
    }
    return ShuffleNet(cfg)


def test():
    net = ShuffleNetG2()
    x = torch.randn(1,3,32,32)
    y = net(x)
    print(y)

if __name__ == '__main__':
    test()



?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末乏悄,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子恳不,更是在濱河造成了極大的恐慌,老刑警劉巖开呐,帶你破解...
    沈念sama閱讀 217,826評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件烟勋,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡筐付,警方通過查閱死者的電腦和手機(jī)卵惦,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,968評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來瓦戚,“玉大人沮尿,你說我怎么就攤上這事〗辖猓” “怎么了畜疾?”我有些...
    開封第一講書人閱讀 164,234評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長印衔。 經(jīng)常有香客問我啡捶,道長,這世上最難降的妖魔是什么奸焙? 我笑而不...
    開封第一講書人閱讀 58,562評(píng)論 1 293
  • 正文 為了忘掉前任瞎暑,我火速辦了婚禮,結(jié)果婚禮上与帆,老公的妹妹穿的比我還像新娘了赌。我一直安慰自己,他們只是感情好玄糟,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,611評(píng)論 6 392
  • 文/花漫 我一把揭開白布勿她。 她就那樣靜靜地躺著,像睡著了一般茶凳。 火紅的嫁衣襯著肌膚如雪嫂拴。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,482評(píng)論 1 302
  • 那天贮喧,我揣著相機(jī)與錄音筒狠,去河邊找鬼。 笑死箱沦,一個(gè)胖子當(dāng)著我的面吹牛辩恼,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 40,271評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼灶伊,長吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼疆前!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起聘萨,我...
    開封第一講書人閱讀 39,166評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤竹椒,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后米辐,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體胸完,經(jīng)...
    沈念sama閱讀 45,608評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,814評(píng)論 3 336
  • 正文 我和宋清朗相戀三年翘贮,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了赊窥。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,926評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡狸页,死狀恐怖锨能,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情芍耘,我是刑警寧澤址遇,帶...
    沈念sama閱讀 35,644評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站斋竞,受9級(jí)特大地震影響傲隶,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜窃页,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,249評(píng)論 3 329
  • 文/蒙蒙 一跺株、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧脖卖,春花似錦乒省、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,866評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至十籍,卻和暖如春蛆封,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背勾栗。 一陣腳步聲響...
    開封第一講書人閱讀 32,991評(píng)論 1 269
  • 我被黑心中介騙來泰國打工惨篱, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人围俘。 一個(gè)月前我還...
    沈念sama閱讀 48,063評(píng)論 3 370
  • 正文 我出身青樓砸讳,卻偏偏與公主長得像琢融,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子簿寂,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,871評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容