R-CNN 物體檢測(cè)第二彈(Fast R-CNN)

R-CNN 物體檢測(cè)第二彈(Fast R-CNN)

? 今天切省,重看了 R-CNN 的后續(xù)改進(jìn) Fast R-CNN(Arxiv版)-本文中提到的paper硬爆,若未特別指明呻拌,說(shuō)的就是此版本膀藐。

? 這里提一把辛酸淚萌朱。15年8月份到11月份宴树,當(dāng)時(shí)我參加了實(shí)驗(yàn)室和外面合作的一個(gè)項(xiàng)目。主要的工作就是在對(duì)方提供的航拍圖像中晶疼,準(zhǔn)確快速地檢測(cè)出車(chē)輛等微小目標(biāo)酒贬。大師兄作為該項(xiàng)目的實(shí)際負(fù)責(zé)人,他提出采用Fast R-CNN來(lái)進(jìn)行檢測(cè)冒晰,這也是我第一次聽(tīng)說(shuō)R-CNN目標(biāo)檢測(cè)同衣。在該項(xiàng)目中,我是負(fù)責(zé)coding的主代碼手(就是拼接github上的Fast R-CNN代碼)壶运,也參與目標(biāo)bounding box 的annotation工作耐齐。因?yàn)楫?dāng)時(shí)我僅僅是將它作為一個(gè)練習(xí) caffe 框架和 python 代碼的上手技術(shù),因此并未細(xì)看 R-CNN 系列 paper 中的檢測(cè)流程細(xì)節(jié)和設(shè)計(jì)緣由蒋情。

? 時(shí)光荏苒埠况,caffe 框架我早就不用了,python代碼依舊bug多多棵癣,但是這幾篇paper的魅力卻依舊不減辕翰。由于我研一劃水厲害,甚至沒(méi)有正經(jīng)修過(guò)一門(mén)機(jī)器學(xué)習(xí)課程狈谊。直到后來(lái)我看完了臺(tái)大林軒田的機(jī)器學(xué)習(xí)課程喜命,又看了UCL的RL教程沟沙,直到刷了幾章deep learning book,又狂寫(xiě)了很多 TF壁榕,keras code矛紫。我才逐漸意識(shí)到,學(xué)習(xí)真的是一個(gè)循序漸進(jìn)牌里,螺旋上升的過(guò)程颊咬。那些往日里 paper 中在我看來(lái)就是理論堆砌的section,現(xiàn)在看來(lái)也是干貨滿(mǎn)滿(mǎn)牡辽。比如 Fast R-CNN中2.3節(jié)描述 multi-loss的部分喳篇,我之前就以為是一個(gè)paper噱頭,但今天看來(lái)态辛,后續(xù)的實(shí)驗(yàn)說(shuō)明麸澜,這個(gè)multi-loss 實(shí)現(xiàn)了兩個(gè)任務(wù)的聯(lián)合學(xué)習(xí),并且使得兩個(gè)任務(wù)互相提升因妙。也許痰憎,這就是蒟蒻的成長(zhǎng)吧。攀涵。。扯回來(lái)洽沟,在我繼續(xù)學(xué)習(xí) CNN-based deep learning以及其在視覺(jué)領(lǐng)域的其它應(yīng)用時(shí)以故,才意識(shí)到R-CNN在基于深度學(xué)習(xí)的檢測(cè)方法類(lèi)中的開(kāi)創(chuàng)性足以比肩AlexNet在基于深度學(xué)習(xí)的圖像分類(lèi)工作中的意義。而R-CNN連續(xù)3篇的逐步改進(jìn)裆操,更是體現(xiàn)了CNN model的巨大能量和作者的天才思想怒详。

? 現(xiàn)在,我們就來(lái)看這一次改進(jìn)是怎么加速R-CNN并提升檢測(cè)性能的踪区。

1. 緣起

1.1 R-CNN的幾個(gè)不足

? 盡管 R-CNN 檢測(cè)算法相對(duì) DPM 等模型在檢測(cè)性能指標(biāo)上有了大幅度的提升昆烁,但是由于是開(kāi)創(chuàng)性的工作,它還存在著一些不足缎岗,下面一一列出:

  1. region proposal的生成嚴(yán)重依賴(lài) Selective Search 算法(簡(jiǎn)寫(xiě)為SS算法)。對(duì) PASCAL VOC中的任意一張圖片來(lái)說(shuō)传泊,SS算法得到所有 proposal (按score取前2000個(gè)的話(huà))所需時(shí)間平均是 1.51 s(參見(jiàn)Faster R-CNN paper的Table 4的數(shù)據(jù)),這個(gè)消耗難以滿(mǎn)足檢測(cè)的實(shí)時(shí)性要求眷细。
  2. 假設(shè)SS算法對(duì)每張圖片會(huì)產(chǎn)生2000個(gè)proposal,對(duì)每一個(gè)proposal普舆,R-CNN的=都需要首先將proposal對(duì)應(yīng)的bbox從圖中摳取出來(lái)恬口,然后resize到標(biāo)準(zhǔn)大小楷兽,進(jìn)行一次前傳來(lái)得到深度特征。這就帶來(lái)3個(gè)問(wèn)題:
    1. 因?yàn)檫@里用到的CNN model都是需要用來(lái)做圖像分類(lèi)的芯杀,所以其深度都很高,即使有GPU加速揭厚,這每一次前傳也相對(duì)耗時(shí)。更何況需要對(duì)每個(gè)proposal都來(lái)一次前傳扶供,這可是一個(gè)串行的過(guò)程筛圆,因此疊加起來(lái)的耗時(shí)十分巨大。
    2. 這里得到的2000個(gè)proposal都是在一張圖片中的椿浓,所以存在大量的overlap太援,也就是說(shuō),得到的2000個(gè)深度特征也是存在大量overlap(即信息冗余)扳碍。然而冗余數(shù)據(jù)天生就應(yīng)該被消滅的...
    3. 正是由于這大量的冗余數(shù)據(jù)提岔,在做mini-batch訓(xùn)練時(shí),我每讀取一張圖片得到的深度特征笋敞,都是內(nèi)存不可承受之重碱蒙。小PC斷然是無(wú)法一次性存下如此多的深度特征的(本實(shí)驗(yàn)室server一年內(nèi)存僅為32G...),只能選擇將特征cache到硬盤(pán)中夯巷。
  3. 雖然R-CNN中的補(bǔ)充實(shí)驗(yàn)已經(jīng)說(shuō)明 基于hard-negative mining的SVM得到的 mAP赛惩,比softmax要高。但是將SVM和detection network的訓(xùn)練隔開(kāi)趁餐,那么用于分類(lèi)的SVM和提取特征的CNN model并不能完全對(duì)應(yīng)喷兼。更好的方式當(dāng)然是要考慮將提取特征和分類(lèi)放在一起進(jìn)行聯(lián)合訓(xùn)練。

1.2 Fast R-CNN的主要解決手段:

? 針對(duì) R-CNN檢測(cè)算法的存在的上述問(wèn)題后雷,F(xiàn)ast R-CNN主要從以下幾方面著手進(jìn)行改進(jìn):

  1. 對(duì) region proposal 生成算法保留季惯,暫時(shí)不考慮改進(jìn)
  2. 既然提取一張圖片中的2000個(gè)proposal的深度特征的過(guò)程存在信息冗余,那么對(duì)于一張圖片喷面,將全圖送入CNN model星瘾,只進(jìn)行一次前傳操作,然后得到中間某個(gè)conv layer的feature map作為整張圖片的feature惧辈。接下來(lái)琳状,每個(gè)proposal對(duì)應(yīng)的特征就從這個(gè)feature map按照比例進(jìn)行截取,然后通過(guò)pool操作統(tǒng)一轉(zhuǎn)化為固定維度的特征盒齿。然后依次將每個(gè)proposal的深度特征再送入全連接層進(jìn)行分類(lèi)念逞。此外困食,因?yàn)樵谕粡垐D上同時(shí)獲得2000個(gè)proposal的深度特診,因此對(duì)訓(xùn)練過(guò)程和采樣策略(paper 2.3節(jié)的"sampled hierarchically")進(jìn)行了改進(jìn)翎承。
  3. 為了提升CNN model中的softmax的分類(lèi)效果硕盹,采用多任務(wù)學(xué)習(xí)(multi-task learning)的方式來(lái)對(duì)分類(lèi)網(wǎng)絡(luò)和bbox regression進(jìn)行學(xué)習(xí)。通過(guò)聯(lián)合學(xué)習(xí)瘩例,提高了softmax分類(lèi)的準(zhǔn)確率和bbox regression的精度

2. 主要檢測(cè)流程

? Fast R-CNN的檢測(cè)流程主要包含以下幾步:

2.1 region proposal generation

? 直接采用 Selective Search 算法來(lái)提取每一張圖中的所有可能的 proposal垛贤,大概2000張(取object-ness score前2000高的)

2.2 detection network

? 這里轉(zhuǎn)譯一下paper的第2節(jié)開(kāi)頭的簡(jiǎn)介聘惦。

一個(gè)Fast R-CNN Network 以單張全圖和一系列object proposal(上面的2000個(gè))為輸入善绎。網(wǎng)絡(luò)首先采用多層的卷積和pooling層來(lái)處理全圖以得到 conv feature map禀酱;其次比勉,對(duì)每個(gè)proposal,通過(guò)ROI pooling layer來(lái)從 feature map 中提取固定長(zhǎng)度的vector作為該proposal的特征表示臊恋;接下來(lái)抖仅,將每個(gè)proposal的特征送入序貫鏈接的全連接層撤卢,全連接層的末尾有兩個(gè)輸出:一個(gè)是用于判斷proposal類(lèi)別的softmax output放吩,一個(gè)是用于做bbox regression的輸出渡紫。

? 注意,假設(shè)目標(biāo)類(lèi)別有 K 類(lèi)莉测,那么softmax 的輸出有 K+1 個(gè)unit(包括 background 類(lèi)別)捣卤,而bbox regression的輸出有 4*K 個(gè)unit(對(duì)每個(gè)類(lèi)都做一下bbox regression)

2.2.1 CNN feature extraction for each proposal

? 這里詳述如何對(duì)每張圖董朝,只經(jīng)過(guò)一次前傳來(lái)獲得所有proposal的深度特征益涧。

  1. 全卷積網(wǎng)絡(luò)(fully-convolutional network)

    只包含了 卷積層 和 pooling 層闲询。這種網(wǎng)絡(luò)的好處是扭弧,對(duì)不同size的輸入鸽捻,都可以得到對(duì)應(yīng)不同size的輸出御蒲。全圖經(jīng)過(guò)了卷積層和pooling層后厚满,得到conv feature map碘箍。

  2. ROI Pooling Layer

    ROI 是指 region of interest丰榴,每個(gè) proposal 在conv feature map 中都有對(duì)應(yīng)位置和長(zhǎng)寬的 ROI四濒,假設(shè)該ROI的位置和長(zhǎng)寬參數(shù)為: (r,c,h,w),r 和 c 代表了ROI的左上角在整個(gè)conv feature map中所占的的row和column數(shù)复隆,而 h 和 w 則代表了 ROI 在conv feature map 所占的行數(shù)和列數(shù)挽拂。

    理論上來(lái)講亏栈,通過(guò)proposal在全圖中的位置信息绒北,就能得到其在 conv feature map 中的 ROI 信息闷游,接下來(lái)就能直接截取出ROI對(duì)應(yīng)區(qū)塊的深度 feature脐往,那為什么要做 ROI pooling呢业簿?這主要是因?yàn)閐etection network后面是對(duì)輸入大小有嚴(yán)格規(guī)定的 全連接層梅尤,而大小不一的proposal產(chǎn)生的深度特征也是大小不一巷燥,自然不滿(mǎn)足后面的輸入要求矾湃,因此本文根據(jù) SPP-Net 的啟發(fā),提出了 ROI Pooling Layer霉咨。

    具體地途戒,對(duì) (r,c,h,w)的ROI喷斋,需要獲得統(tǒng)一的 HxW 的conv feature特征。那么粉私,

    ROI max pooling 將 (h, w) 的 ROI window轉(zhuǎn)化為 (H, W)的grid诺核,grid中每個(gè)sub-window的size是 (h/H, w/W)窖杀,那么對(duì)每個(gè)sub-window中的數(shù)值進(jìn)行 max pooling入客。這樣得到的結(jié)果就是 (H, W)的feature map桌硫。同樣地酥诽,對(duì)conv feature map的每個(gè)channel 都執(zhí)行這樣的max pooling操作肮帐。

    由此训枢,每個(gè) proposal 得到了 統(tǒng)一大小的深度特征恒界,經(jīng)過(guò) flatten 操作即可送入 后續(xù)的全連接層十酣。

2.2.2 Softmax classification and bbox regression

? 全連接層的作用是對(duì)得到的conv feature進(jìn)行逐級(jí)抽象耸采,以達(dá)到能夠進(jìn)行分類(lèi)的抽象程度虾宇。在全連接層的末端加入了兩個(gè)輸入:softmax 輸出和 bbox regression 輸出。假設(shè)目標(biāo)種類(lèi)為 K 類(lèi)

  1. softmax 輸出

    根據(jù)前述怔接,softmax 的輸出有 K+1 個(gè)unit(包括 background 類(lèi)別)扼脐。softmax 實(shí)際上就是在全連接層末端基礎(chǔ)上再加一層全連接谎势,再并上 softmax 概率輸出脏榆。

    這里的分類(lèi) loss 是:paper中說(shuō)是log-loss台谍,實(shí)際上就是交叉熵?fù)p失(cross-entropy loss)

  2. bbox regression 輸出

    根據(jù)前述趁蕊,bbox regression的輸出有 4*K 個(gè)unit(對(duì)每個(gè)類(lèi)都做一下bbox regression)掷伙。每個(gè)proposal都對(duì)應(yīng)了一個(gè)目標(biāo)的x,y,w,h 位置信息,bbox regression實(shí)際上就是在全連接層末端基礎(chǔ)上再加上一層用作坐標(biāo)回歸的線(xiàn)性層(實(shí)際上也是全連接)卒废,來(lái)對(duì)proposal的位置信息進(jìn)行修正摔认,得到新的 x,y,w,h参袱。詳細(xì)的在 R-CNN 的7.3節(jié)中有詳細(xì)的描述秽梅。這里的變化由 R-CNN 中的proposal 的x,y,w,h輸入變?yōu)檫@里的全連接層末端向量輸入企垦。

    R-CNN中的 loss 就是嶺回歸中的損失竹观,這里的回歸loss是 paper 中2.3節(jié)定義的 loc loss臭增,下面給出loc loss中用到的 smooth-L1損失誊抛,這樣設(shè)計(jì)的原因是:當(dāng)差異比較小時(shí)拗窃,梯度也比較小,即只需要進(jìn)行微小的調(diào)整即可九默;當(dāng)差異比較大時(shí)驼修,不會(huì)產(chǎn)生過(guò)大的梯度乙各,而是產(chǎn)生范數(shù)為1的梯度耳峦,不會(huì)發(fā)生梯度爆炸蹲坷。

    $smooth_{L_1}=0.5x^2, if |x|<1$

    $smooth_{L_1}=|x| - 0.5, if |x| >= 1$

這里將 softmax 分類(lèi) 和 bbox regression 中的損失聯(lián)合起來(lái)進(jìn)行優(yōu)化冠句,以同時(shí)實(shí)現(xiàn)分類(lèi)和位置回歸懦底。

檢測(cè)時(shí)聚唐,對(duì)每個(gè)proposal腔召,先通過(guò)softmax判斷其類(lèi)別臀蛛,然后再根據(jù)其類(lèi)別去提取由bbox regression 得到的屬于該類(lèi)別的位置信息。據(jù)此更新proposal的位置信息后客峭,執(zhí)行NMS(Non-maximum suppression)來(lái)去除冗余 bbox

2.2.3 Truncated SVD for faster detection

? 簡(jiǎn)言之舔琅,就是將原有的不包含非線(xiàn)性激活函數(shù)的全連接層轉(zhuǎn)換為低秩矩陣相乘备蚓,因?yàn)榇缶仃囅喑嗽谙鄳?yīng)的計(jì)算庫(kù)支持,因此可以獲得更快的檢測(cè)速度二跋。

3. 主要訓(xùn)練過(guò)程:

? 因?yàn)閐etection network現(xiàn)在將proposal的特征提取工作放在一次前傳中完成同欠,并且存在兩項(xiàng)輸出铺遂,自然訓(xùn)練過(guò)程也存在一些變化襟锐。

3.1 Mini-batch sampling:

3.1.1 R-CNN 中的 mini-batch

? 假設(shè)構(gòu)造mini-batch size為R粮坞,那么隨機(jī)選擇 R/4 的 類(lèi)別樣本莫杈,R*3/4的背景樣本筝闹。這些樣本可能來(lái)自很多張圖片关顷,但在這里议双,為了獲得樣本的深度特征平痰,需要做的前傳次數(shù)是 R 次觉增。

3.1.2 Fast R-CNN 中的 mini-batch:

? 因?yàn)楝F(xiàn)在一次前傳可以獲得一張圖片內(nèi)所有 proposal 的深度特征逾礁,因此希望利用這個(gè)特性來(lái)加速訓(xùn)練過(guò)程嘹履。通過(guò)

Hierarchical sampling

Sampling N images砾嫉,then samping R/N ROIs from each image

? 例如焕刮,對(duì)R=128配并,N=2溉旋,那么原有方式做128次前傳观腊,現(xiàn)在只做2次前傳梧油。實(shí)現(xiàn)了64倍的加速儡陨。

? 注意,這里的背景樣本定義和 R-CNN中略有不同类少,詳細(xì)參看paper的第2.3節(jié)

3.2 Multi-loss

? 現(xiàn)在只考慮 單個(gè) proposal信轿,softmax的輸出向量是p财忽,真實(shí)類(lèi)別是 u倘核,通過(guò)bbox regression的預(yù)測(cè)到的位置信息為$v=(v_x,v_y,v_w,v_h)$,而與proposal IOU最大的ground-truth bbox位置信息(即回歸目標(biāo))為$tu=(tu_x,tu_y,tu_w,t^u_h)$

? $p_u$ 代表向量p的第u個(gè)unit即彪,代表softmax預(yù)測(cè)的proposal屬于第u類(lèi)的概率紧唱,$t^u$代表bbox regression預(yù)測(cè)的proposal如果是第u類(lèi)時(shí),對(duì)應(yīng)的位置信息隶校。

3.2.1 classification loss

? 前述的 softmax 分類(lèi)損失:$L_{cls}(p, u) = -log(p_u)$

3.2.2 localization loss

? 前述的bbox regression損失:$L_{loc}(t^u, v)=\sum_{i\in{x,y,w,h}}smooth_{L_1}(t_i^u-v_i)$

? 通過(guò)下式來(lái)結(jié)合上述loss:$L(p,u,t^u,v)=L_{cls}(p, u) + \lambda[u\geq1]L_{loc}(t^u, v)$

3.2.3 multi-loss 聯(lián)合優(yōu)化的優(yōu)勢(shì)

? 通過(guò)paper 5.1節(jié)和 Table 6. 的實(shí)驗(yàn)結(jié)果顯示漏益,和R-CNN中的檢測(cè)結(jié)果對(duì)比顯示,采用本文的 multi-loss 聯(lián)合優(yōu)化深胳,mAP比 R-CNN中的 分類(lèi)(CNN model提特征+SVM分類(lèi))與bbox regression分開(kāi)的mAP要搞幾個(gè)百分點(diǎn)绰疤。此外,假設(shè)檢測(cè)時(shí)不采用bbox regression舞终,而訓(xùn)練時(shí)采用multi-loss訓(xùn)練CNN model 與 只采用 softmax-loss訓(xùn)練 CNN model,mAP也要高1個(gè)百分點(diǎn)。這說(shuō)明,聯(lián)合訓(xùn)練有益于proposal的分類(lèi),且這個(gè)提高主要來(lái)自分類(lèi)精度的提升。

? 為什么這里聯(lián)合訓(xùn)練后,mAP反而比R-CNN中的SVM分類(lèi)得到的mAP還高呢?還記得上文提到的為什么采用SVM而非Softmax嗎?在R-CNN中采幌,之所以不采用softmax蹲姐,是因?yàn)閷?duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí)拐邪,訓(xùn)練的類(lèi)別樣本都是對(duì)grounding-truth bbox的微小移動(dòng)獲得的东臀,因此損害了類(lèi)別樣本的質(zhì)量赁濒。試想击你,在這里采用聯(lián)合優(yōu)化的話(huà)鸿摇,若某訓(xùn)練的類(lèi)別樣本和gt bbox的IOU很大(99%)鸵钝,則bbox regression帶來(lái)的loss會(huì)很小,則網(wǎng)絡(luò)會(huì)專(zhuān)注于去優(yōu)化分類(lèi)效果;如果某訓(xùn)練的類(lèi)別樣本和 gt bbox的IOU 不大(51%),則bbox regression帶來(lái)的loss 會(huì)比之前大,則網(wǎng)絡(luò)用于優(yōu)化分類(lèi)效果的精力會(huì)被分散到優(yōu)化定位效果上胆筒。此外构诚,網(wǎng)絡(luò)會(huì)學(xué)到:當(dāng)proposal和真正的bbox有偏移時(shí)丑蛤,網(wǎng)絡(luò)會(huì)努力去糾正這個(gè)偏移厦章,并努力去采用proposal中的和目標(biāo)類(lèi)別相關(guān)的部分的特征來(lái)進(jìn)行分類(lèi)群发。

? 補(bǔ)充一點(diǎn)認(rèn)識(shí)。R-CNN 中的bbox regression是針對(duì)每一類(lèi)目標(biāo)訓(xùn)練一次,但每類(lèi)目標(biāo)中可能存在多種size和aspect-ratio的gt bbox产艾,因此訓(xùn)練出來(lái)的預(yù)測(cè)能力可能不太好。但是在這里软舌,bbox regression是以每個(gè)proposal的深度特征為輸入來(lái)進(jìn)行訓(xùn)練不跟,相當(dāng)于在訓(xùn)練時(shí)就引入了物體的特征信息。因此訓(xùn)練出的預(yù)測(cè)能力對(duì)于具體的每個(gè)proposal蚪腐,應(yīng)該更適配的。

3.3 ROI Pooling Layer的梯度反傳

? 參照一般的pooling layer的梯度反向傳播即可

4. 實(shí)驗(yàn)分析

4.1 fine-tune which layer?

? paper的4.5節(jié)給出實(shí)驗(yàn)結(jié)果:如果采用imagenet上的pretrained weights,只訓(xùn)練全連接層奇瘦,則mAP下降厲害宋距。但是也不用訓(xùn)練全部的 conv layers。VGG16訓(xùn)練 conv3_1 層及其后的層即可,mAP下降不明顯。

4.2 是否需要更多訓(xùn)練數(shù)據(jù)拦宣?

? paper的5.3節(jié)給出實(shí)驗(yàn)結(jié)果:相比于DPM在1k張圖訓(xùn)練集上,性能就達(dá)到飽和無(wú)法提升。Fast R-CNN 可以通過(guò)提升訓(xùn)練集大小蜂桶,來(lái)提升檢測(cè)性能,這也是CNN model的優(yōu)勢(shì)倒槐。但這里的訓(xùn)練集從VOC10到VOC12着逐,同一份測(cè)試集上的mAP提高為2.7%左右浸间。

4.3 proposal 更多就更好嗎狭瞎?

? paper的5.5節(jié)給出實(shí)驗(yàn)結(jié)果圖:當(dāng)SS算法給出的proposal數(shù)量逐漸增多,且得到的proposal同時(shí)用于訓(xùn)練和測(cè)試,整體的mAP略有下降契讲,這主要是由于object-ness score較低的proposal在訓(xùn)練階段“污染”了訓(xùn)練集。由此滑频,實(shí)驗(yàn)進(jìn)一步測(cè)試捡偏,當(dāng)采用密集采樣(類(lèi)似sliding window的dense sampling)(同時(shí)用于訓(xùn)練和測(cè)試)時(shí),性能進(jìn)一步下降峡迷。這還是由于dense box對(duì)訓(xùn)練集帶來(lái)的污染银伟。

? 我個(gè)人認(rèn)為可能還有另一個(gè)原因你虹,訓(xùn)練集中的object數(shù)量固定,隨著proposal個(gè)數(shù)的增加彤避,類(lèi)別樣本增加的數(shù)量有限傅物,而背景樣本增加的數(shù)量很多,這種類(lèi)別不平衡問(wèn)題給訓(xùn)練帶來(lái)的影響也很大琉预。之前做過(guò)的項(xiàng)目中董饰,由于需要檢測(cè)汽車(chē)類(lèi)別僅有3類(lèi),因此最開(kāi)始的訓(xùn)練檢測(cè)效果很差圆米,初步分析是類(lèi)別不平衡的問(wèn)題卒暂。調(diào)整類(lèi)別比例(汽車(chē)之間的比例與汽車(chē)和背景之間的比例)后,效果并未提升娄帖。后來(lái)推測(cè)是由于背景主要是草原也祠,但也包含了少量人,則背景樣本中的差異也很大近速。于是我們后來(lái)又單獨(dú)摳取了人樣本诈嘿,并作為檢測(cè)目標(biāo)的一類(lèi)。經(jīng)此操作削葱,不僅汽車(chē)被錯(cuò)判為背景的情況大幅減少奖亚,就連對(duì)人的檢測(cè)效果也十分顯著(人和汽車(chē)以及人和草原背景間的差異較大)。

? 此外佩耳,在測(cè)試時(shí)遂蛀,過(guò)多的 proposal可能會(huì)干擾NMS過(guò)程,從而影響mAP干厚。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末李滴,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子蛮瞄,更是在濱河造成了極大的恐慌所坯,老刑警劉巖,帶你破解...
    沈念sama閱讀 207,113評(píng)論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件挂捅,死亡現(xiàn)場(chǎng)離奇詭異芹助,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)闲先,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,644評(píng)論 2 381
  • 文/潘曉璐 我一進(jìn)店門(mén)状土,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人伺糠,你說(shuō)我怎么就攤上這事蒙谓。” “怎么了训桶?”我有些...
    開(kāi)封第一講書(shū)人閱讀 153,340評(píng)論 0 344
  • 文/不壞的土叔 我叫張陵累驮,是天一觀的道長(zhǎng)酣倾。 經(jīng)常有香客問(wèn)我,道長(zhǎng)谤专,這世上最難降的妖魔是什么躁锡? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 55,449評(píng)論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮置侍,結(jié)果婚禮上映之,老公的妹妹穿的比我還像新娘。我一直安慰自己墅垮,他們只是感情好惕医,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,445評(píng)論 5 374
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著算色,像睡著了一般抬伺。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上灾梦,一...
    開(kāi)封第一講書(shū)人閱讀 49,166評(píng)論 1 284
  • 那天峡钓,我揣著相機(jī)與錄音,去河邊找鬼若河。 笑死能岩,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的萧福。 我是一名探鬼主播拉鹃,決...
    沈念sama閱讀 38,442評(píng)論 3 401
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼鲫忍!你這毒婦竟也來(lái)了膏燕?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 37,105評(píng)論 0 261
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤悟民,失蹤者是張志新(化名)和其女友劉穎坝辫,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體射亏,經(jīng)...
    沈念sama閱讀 43,601評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡近忙,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,066評(píng)論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了智润。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片及舍。...
    茶點(diǎn)故事閱讀 38,161評(píng)論 1 334
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖窟绷,靈堂內(nèi)的尸體忽然破棺而出锯玛,到底是詐尸還是另有隱情,我是刑警寧澤钾麸,帶...
    沈念sama閱讀 33,792評(píng)論 4 323
  • 正文 年R本政府宣布更振,位于F島的核電站,受9級(jí)特大地震影響饭尝,放射性物質(zhì)發(fā)生泄漏肯腕。R本人自食惡果不足惜栅表,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,351評(píng)論 3 307
  • 文/蒙蒙 一除嘹、第九天 我趴在偏房一處隱蔽的房頂上張望誓琼。 院中可真熱鬧贺辰,春花似錦笨忌、人聲如沸厘线。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,352評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)立叛。三九已至负敏,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間秘蛇,已是汗流浹背其做。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,584評(píng)論 1 261
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留赁还,地道東北人妖泄。 一個(gè)月前我還...
    沈念sama閱讀 45,618評(píng)論 2 355
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像艘策,于是被迫代替她去往敵國(guó)和親蹈胡。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,916評(píng)論 2 344

推薦閱讀更多精彩內(nèi)容