- 是對MobileNet-V1的改進(jìn)预愤,同樣是一個輕量化卷積神經(jīng)網(wǎng)絡(luò)
40.1 設(shè)計(jì)思想
- 采用Inverted residuals
- 為了保證網(wǎng)絡(luò)可以提取更多的特征缩多,在residual block中第一個1*1 Conv和3*3 DW Conv之前進(jìn)行通道擴(kuò)充
- Linear bottlenecks
- 為了避免Relu對特征的破壞藏杖,在residual block的Eltwise sum之前的那個 1*1 Conv 不再采用Relu
- stride=2的conv不使用shot-cot懂盐,stride=1的conv使用shot-cut
40.2 網(wǎng)絡(luò)架構(gòu)
- Inverted residuals
- ResNet中Residuals block先經(jīng)過1*1的Conv layer,把feature map的通道數(shù)降下來跛蛋,再經(jīng)過3*3 Conv layer熬的,最后經(jīng)過一個1*1 的Conv layer,將feature map 通道數(shù)再“擴(kuò)張”回去
- 即采用先壓縮赊级,后擴(kuò)張的方式押框。而 inverted residuals采用先擴(kuò)張,后壓縮的方式理逊。
-
MobileNet采用DW conv提取特征橡伞,由于DW conv本身提取的特征數(shù)就少,再經(jīng)過傳統(tǒng)residuals block進(jìn)行“壓縮”晋被,此時提取的特征數(shù)會更少兑徘,因此inverted residuals對其進(jìn)行“擴(kuò)張”,保證網(wǎng)絡(luò)可以提取更多的特征
- Linear bottlenecks
- ReLu激活函數(shù)會破壞特征
- ReLu對于負(fù)的輸入羡洛,輸出全為0挂脑,而本來DW conv特征通道已經(jīng)被“壓縮”,再經(jīng)過ReLu的話欲侮,又會損失一部分特征
-
采用Linear崭闲,目的是防止Relu破壞特征
- shortcut
-
stride=2的conv不使用shot-cot,stride=1的conv使用shot-cut
-
- 網(wǎng)絡(luò)架構(gòu)
大數(shù)據(jù)視頻推薦:
網(wǎng)易云課堂
CSDN
人工智能算法競賽實(shí)戰(zhàn)
AIops智能運(yùn)維機(jī)器學(xué)習(xí)算法實(shí)戰(zhàn)
ELK7 stack開發(fā)運(yùn)維實(shí)戰(zhàn)
PySpark機(jī)器學(xué)習(xí)從入門到精通
AIOps智能運(yùn)維實(shí)戰(zhàn)
騰訊課堂
大數(shù)據(jù)語音推薦:
ELK7 stack開發(fā)運(yùn)維
企業(yè)級大數(shù)據(jù)技術(shù)應(yīng)用
大數(shù)據(jù)機(jī)器學(xué)習(xí)案例之推薦系統(tǒng)
自然語言處理
大數(shù)據(jù)基礎(chǔ)
人工智能:深度學(xué)習(xí)入門到精通