title: Mask R-CNN論文閱讀筆記
date: 2019-06-04 11:36:32
tags:
- instance segmentation
- paper
參考資料如下:
Abstract
Introduction
Related Work
Mask R-CNN
在Faster R-CNN的二分支預(yù)測基礎(chǔ)上,加上第三個預(yù)測分支:預(yù)測一個mask。關(guān)鍵是如何提取很欣盏(像素級別)的空間信息
Faster R-CNN回顧
Faster R-CNN第一階段“RPN”,提取出“proposal”——即有可能包含object的區(qū)域退唠,但不關(guān)心到底是什么object;第二階段本質(zhì)上是“Fast R-CNN”, 使用ROIPool對proposal的feature進行“same size”操作荤胁,再輸入到Fast R-CNN進行分類&bounding box回歸瞧预。這兩個階段用到的feature可以是共享的。
Mask R-CNN
Mask R-CNN也是二階段方法仅政,第一階段同樣是RPN網(wǎng)絡(luò)垢油。在第二階段并行進行三個工作:①預(yù)測cls ②box offset ③binary mask
? 形式化地,對于每個ROI定義了多任務(wù)loss:已旧,其中
,
的定義與Fast R-CNN中的一樣秸苗。對于
: 每一個ROI有一個
維度的輸出(
是cls的個數(shù)召娜,
是ROI align后輸入第二階段的特征大性送省)。如下圖所示,如果cls分支預(yù)測的是“人”秸讹,則只取“人mask”與label之間計算binary cross-entropy loss檀咙。
[圖片上傳失敗...(image-1cb66f-1562147825974)]
- binary cross-entropy loss的計算方式如下:即每個cell計算loss,再平均
[圖片上傳失敗...(image-8b59b0-1562147825974)]
這樣的mask loss定義消除了classes之間的競爭璃诀,解除了mask分支預(yù)測和cls分支預(yù)測的耦合弧可。不同于FCN網(wǎng)絡(luò)對于segmentation loss的定義softmax+cross-entropy
, mask rcnn使用的loss定義為sigmoid+binary loss
劣欢。FCN網(wǎng)絡(luò)的segmentation loss的定義如下棕诵,可以看出: ①classes之間是有競爭的[sum(yi)=1] ②mask的預(yù)測也帶有了cls的預(yù)測,這樣就與cls分支耦合了
[圖片上傳失敗...(image-14fc8a-1562147825974)]
RoIAlign
RPN網(wǎng)絡(luò)輸出的region of interest是相對于原圖的凿将,映射到feature map上有可能不在整數(shù)坐標(biāo)上校套。如下圖,假設(shè)有一個5*5的feature map牧抵,而RPN輸出的region映射到feature map上是虛線區(qū)域
-
ROI Pooling的做法:
- 先對ROI進行quantization操作(quantization:即對到相應(yīng)的整數(shù)上 )
image- 進行pooling的bin劃分
image- 再對bin進行quantization操作
image- 再對每個bin取max
image -
ROI Align操作:
- 直接進行bin劃分
[圖片上傳失敗...(image-950307-1562147825974)]
- 在bin中sample一些點笛匙,論文中說點的個數(shù)&位置的影響并不大。其中
犀变、
是相應(yīng)bin的
最小妹孙,最大值
[圖片上傳失敗...(image-36a4f-1562147825974)]
- 計算每個點處的value(雙線性差值)。以
為例获枝,他周圍的整點
蠢正、
、
映琳、
机隙,這些整點處的value是知道的,因此可以計算出S1處的值萨西,計算如下:
[圖片上傳失敗...(image-bfd0d-1562147825974)]
- 每個bin有四個點有鹿,對這四個點進行取average(用max-pool也可以,模型對此不敏感)
imageimage
網(wǎng)絡(luò)結(jié)構(gòu)
[圖片上傳失敗...(image-8f2b1c-1562147825974)]
為了說明這個方法的泛化性谎脯,作者提出多種Mask-RCNN結(jié)構(gòu)葱跋。不同結(jié)構(gòu)之間的差異體現(xiàn)在: (i)特征提取層的backbone結(jié)構(gòu) (ii)網(wǎng)絡(luò)的兩個head部分(Box head&Mask head)
backbone架構(gòu)
? 文中稱backbone結(jié)構(gòu)為“network-depth-features”。測試的網(wǎng)絡(luò)架構(gòu)有50 depth或者100 depth的Resnet和ResNeXt網(wǎng)絡(luò)源梭。帶有ResNets的Faster RCNN是從4-th stage最后的feature map上提取特征娱俺,作者記作C4。例如废麻,從ResNet-50 的4-th stage final feature上提取特征荠卷,則被記為ResNet-50-C4
? 作者還測試了更有效的bockbone——Feature Pyramid Network(FPN),帶有FPN backbone 的Faster RCNN在不同尺度上提取ROI特征烛愧。除了多尺度之外油宜,其余的部分和不同的ResNet相同掂碱。使用了ResNet-FPN backbone提取特征的Mask RCNN,在精度和速度上都有優(yōu)秀的表現(xiàn)
network head
head部分主要是在已有結(jié)構(gòu)上添加了全卷積的mask預(yù)測分支慎冤。作者主要拓展了以Resnet和FPN為基礎(chǔ)網(wǎng)絡(luò)的Faster RCNN box head疼燥。以FPN基礎(chǔ)網(wǎng)絡(luò)為例:
- box head
[圖片上傳失敗...(image-250f2c-1562147825974)]
① FPN-ROI mapping:將ROI對應(yīng)到特定scale的feature map上。每個ROI有一個pooler scale
屬性蚁堤,可以從pooler scale
知道對應(yīng)的是哪個feature map醉者。
FPN網(wǎng)絡(luò)如下:
[圖片上傳失敗...(image-c82a46-1562147825974)]
可知pooler scale
有1/4[P2],1/8[P3]披诗,1/16[P4]撬即,1/32[P5]四種(P6不參與這一步),通過如下公式:
[圖片上傳失敗...(image-1266cb-1562147825974)]
? 可知,呈队、
(即Pn最小是P2搞莺,Pn最大是P5)。若某一個ROI掂咒,通過其
pooler scale
計算出,則其對應(yīng)著P3才沧。
② ROI Align:將ROI對應(yīng)上Pn,進行same size操作
[圖片上傳失敗...(image-8da4ba-1562147825974)]
- Mask Head
[圖片上傳失敗...(image-821ac0-1562147825974)]
[圖片上傳失敗...(image-a3fe5b-1562147825974)]
[圖片上傳失敗...(image-3432f6-1562147825974)]
對于每個proposal會預(yù)測num_classes
個mask绍刮,到底選擇哪個mask温圆,是通過box head
的cls
預(yù)測分支來挑選的,如上圖孩革。
實現(xiàn)細(xì)節(jié)
超參的設(shè)定依據(jù)Fast/Faster RCNN岁歉,雖然原始的任務(wù)是object detection,但作者發(fā)現(xiàn)對于instance segmentation也同樣適用
Training:
- ROI的positive/negative:IoU[RoI&ground-truth box]>=0.5判為positive膝蜈;否則判為negative锅移。
只定義在positive ROI上。mask的預(yù)測目標(biāo)是①intersection between RoI ②GT mask
- image-centric training饱搏。圖像shorter edge縮放到800像素非剃。每個GPU上,每個mini-batch有2張圖片推沸,每張圖片采樣N個ROI(正負(fù)比例為1:3)备绽。采用C4 backbone,N=64鬓催;FPN backbone肺素,N=512
- image-centric sampling:mini-batch先對圖像采樣2個,再在采樣到的圖像中采樣N個ROI宇驾,這樣同一張圖的各個ROI可以共享feature[Fast RCNN采用]倍靡;還有一種方法稱為“RoI-centric sampling”,這種方法從所有圖片的所有候選區(qū)域中均勻取樣课舍,由于ROI來自不同圖片塌西,為了得到ROI的feature蜗顽,這些不同的圖片都要計算其feature,開銷很大[R-CNN和SPPnet采用]
- 作者使用8個GPU迭代了160k次雨让,相應(yīng)的learning rate=0.02并在120k迭代步lr變?yōu)?.002。衰減速率為0.0001忿等,動量為0.9.
- 為了方便消融性實驗栖忠,RPN的獨立訓(xùn)練的,但由于RPN和Mask RCNN使用相同的backbone贸街,因此是可以共享的
Inference:
- mask分支只應(yīng)用在top 100 score的detected box上
- 每個ROI有cls_num個mask庵寞,但是依據(jù)cls branch,選出第k個mask不铆。對于m*m的mask湖饱,先resize to ROI size酗昼,再二值化
實驗
各種指標(biāo)
-
簡單指標(biāo):下面的“覆蓋上了”、“沒有”都是以
為閾值的(大于閾值說明覆蓋上了古沥,小于閾值說明沒有覆蓋上)
- TP(true positive): 有GT,且mask覆蓋上了(準(zhǔn)確)
- TN:在背景處娇跟,算法預(yù)測出是背景(準(zhǔn)確)
- FP:預(yù)測的mask處岩齿,沒有GT (過預(yù)測了)
- FN:有GT的地方,沒有mask(沒預(yù)測到)
mask IoU:
-
AP(Average Precision)
- 查準(zhǔn)率:
苞俘,這用公式應(yīng)用在test set中的某一類
- 由于TP等確定盹沈,和IoU的閾值有關(guān),因此可以寫成
- 為了考慮全面吃谣,可以取不同的閾值t乞封,如
,(即岗憋,從0.5開始肃晚,以0.05為步長,一直取到0.95)仔戈,再在閾值層面取平均
:
-
:即對所有類的
做平均陷揪。
- 即:
.即:現(xiàn)在閾值層面取平均,再在cls層面取平均
-
杂穷,即閾值只取0.5時悍缠,計算出來的AP
-
:即
。AP for small objects: area<32*32; for medium objects: 32*32<area<96*96; for large objects: area>96*96
- 查準(zhǔn)率:
-
AR(Average Recall)
- 查全率:
- 同上:AR計算公式如下:
[圖片上傳失敗...(image-68e17b-1562147825974)]
- 查全率:
數(shù)據(jù)集介紹
參考文章如下:1. PASCAL VOC介紹 2.COCO介紹
PASCAL VOC數(shù)據(jù)集
- 分布如下:
即耐量,VOC 2012
包含了VOC 08
至12
的所有數(shù)據(jù)飞蚓。普遍使用的是 VOC2007和VOC2012數(shù)據(jù)集,因為二者是互斥的廊蜒。
- 數(shù)據(jù)量
- VOC 2007共10k image:5k train+val(train趴拧、val不分開的)以及5k test———>20 cls
- VOC 2012【檢測任務(wù)】: trainval有11540張圖片共27450個物體溅漾;測試集大小不知道,還沒有公布(VOC 2017的測試集以及l(fā)abel已經(jīng)公布了)———>20 cls
- VOC 2012【分割任務(wù)】:trainval有 2913張圖片共6929個物體著榴;測試集大小不知道添履,還沒有公布———>20 cls
COCO數(shù)據(jù)集
- 數(shù)據(jù)量(2014年)———>80 cls
- train/val/test分別為80k/40k/40k
- 數(shù)據(jù)劃分
- 訓(xùn)練集:80K的train + 35K的val(35K的val稱為“trainval 35k”)
- 測試集【本地】:剩余的5K val(被稱為“minival”)
- 測試集【在線】:提交到官方的evaluation server(稱為“test-dev”)
Main Results
作者對比了COCO 2015和COCO 2016的冠軍模型MNC和FCIS,在without bells and whilstles(可以理解為不需要花里胡哨的東西脑又,例如不需要OHEM暮胧、data-augment等)
的情況下,Mask R-CNN with ResNet-101-FPN都能超越花里胡哨的FCIS+++(which includes multi-scale train/test, horizontal flip test, and online hard example mining)
问麸。作者雖然沒有嘗試往衷,但是認(rèn)為這些花里胡哨的東西用在Mask RCNN上應(yīng)該也能改進。
? 通過模型的一些輸出圖片可以發(fā)現(xiàn)严卖,F(xiàn)CIS+++有個普遍存在的缺點席舍,即在實例與實例的重疊處表現(xiàn)不好,說明其對于實例分割的基礎(chǔ)問題哮笆,并沒有很好的解決来颤。而Mask RCNN卻能應(yīng)對
消融性實驗(Ablation Experiments)
消融性實驗有點控制變量的意思稠肘,mask RCNN有一系列pipelines脚曾,如A、B启具、C等本讥,消融性實驗就是看各個部分的貢獻到底有多大,各個部分是不是彼此依賴鲁冯、相互促進
- 結(jié)構(gòu)
- FPN > C4
- ResNet 101 > ResNet 50
- ResNeXt 101 > ResNet 101
- Independent Masks > Multinomial: 見前面
的介紹
- RoIAlign > RoIWarp ~= RoIPool
- 使用stride-32的C5 feature比使用stride-16的C4 feature有著更高的精度——說明RoIAlign極大解決了“大步長(large-stride)” feature的挑戰(zhàn)(檢測和分割領(lǐng)域)
- mask branch:由于mask的預(yù)測是需要空間信息的拷沸,因此全卷積(FCN)branch > MLP(多層全連接)
Bounding box detection result
消融性實驗的指標(biāo)針對的是最終mask的AP,現(xiàn)在討論bbox
- full trained Mask R-CNN:表現(xiàn)優(yōu)于Faster R-CNN的各種變種(忽略Mask R-CNN的mask branch輸出)
- part trained Mask R-CNN(不訓(xùn)練mask branch)——也稱為"Faster R-CNN with RoIAlign": 優(yōu)于Faster R-CNN的各種變種【RoIAlign的功勞】
- full trained Mask R-CNN > part trained Mask R-CNN【multi-task training的功勞薯演,即mask branch也有一定的貢獻】
時間(速度)
Inference:
作者使用Faster RCNN的
4-step alternating training
方法訓(xùn)練
- ResNet-101-FPN撞芍。模型在每張圖片需要195ms的GPU時間(Nvidia Tesla M40)+ 15ms CPU時間(resizing output to original resolution)。雖然是共享了特征跨扮,但是統(tǒng)計意義上和不共享特征有著相同的mask AP
- ResNet-101-C4序无。耗費~400ms,因此不推薦
訓(xùn)練:
- 在COCO trainval35k上衡创,8-GPU同步訓(xùn)練
- ResNet-50-FPN:32 hours(0.72s per mini batch——16 images)
- ResNet-101-FPN:44 hours
Enhance
許多用在detection/segmentation的技巧也可以用在Mask RCNN上
- updated baseline(超參的改變)
- 160k次迭代 ——> 180K次迭代
- 在120k次learning rate變成1/10 ——> 在120k帝嗡、160k迭代都變成1/10
- NMS threshold:0.3 ——> 0.5
- End-to-end training: “approximate 版本”
- pre-trained使用1k-class subset of ImageNet ——> 5k-class subset of ImageNet
- Train-time augmentation: 增加到260k次迭代
- training 階段: sample scale from [640,800] pixels
- learning rate:在200k、240k分別reduced by 10
- deeper 結(jié)構(gòu):101-layer ResNeXt ——> 152-layer
- Non-local(NL): [todo]
- test-time augmentation: 綜合
&水平翻轉(zhuǎn)的結(jié)果