Person Re-Identification by Deep Joint Learning of Multi-Loss Classification

introduction

we formulate a method for joint learning of local and global feature selection losses designed to optimise person re-id when using only generic matching metrics such as the L2 distance.即聯(lián)合學(xué)習(xí)局部和全局特征。作者認(rèn)為learning any matching distance metric is intrinsically learn- ing a global feature transformation across domains各吨,所以其實(shí)特征的度量用簡單的比如L2就可以了壹瘟,主要應(yīng)該聚焦于特征的提取和表達(dá)雷袋。
傳統(tǒng)的手工提取特征主要提取的是局部特征排截,比如把圖像切分成水平的條狀來處理居凶。而dl(deep learning)的方法主要提取的是圖像的全局特征界逛。但是作者認(rèn)為這兩種處理方式得到的特征都不是最優(yōu)的李请,兩者結(jié)合才好瞧筛,因?yàn)槿说囊曈X系統(tǒng)是同時處理這兩種特征(global (contextual) and local (saliency) information)的。仔細(xì)想想导盅,還是有那么點(diǎn)道理的较幌。
作者的網(wǎng)絡(luò)設(shè)計也是從這個角度出發(fā),有兩個branch白翻,分別提取局部特征和全局特征乍炉,但是這個兩個branch不是獨(dú)立的,而是相互影響滤馍,共同學(xué)習(xí)的岛琼。這樣一個網(wǎng)絡(luò)的好處在于,不但可以同時提取局部和全局的特征巢株,還可以學(xué)習(xí)局部和全局的關(guān)系槐瑞,兩者相互補(bǔ)足,來解決局部錯位等reID中的典型問題阁苞。
此外困檩,作者還introduce a structured sparsity based feature selection learning mechanism for improving multi- loss joint feature learning robustness w.r.t. noise and data co- variance between local and global representations.意思大概就是這是一種基于稀疏性的正則化的手段,用來解決噪聲影響那槽。

related work

1.saliency learning based models悼沿。這些方法不考慮全局特征,主要modelling localised part im- portance. However, these existing methods consider only the patch appearance statistics within individual locations but no global feature representation learning, let alone the correla- tion and complementary information discovery between local and global features as modelled by the JLML.
2.Spatially Constrained Similarity (SCS) model和Multi-Channel Parts (MCP) network 骚灸。這兩個方法倒是同時考慮了全局特征糟趾。SCS主要聚焦于 supervised metric learning。但是SCS不考慮hand-crafted local and global features之間的關(guān)系甚牲。MCP主要用triplet ranking loss(不懂)來優(yōu)化义郑,而JLML主要用multiple classification loss,前者存在一定壞處:Critically, this one-loss model learning is likely to impose negative influ- ence on the discriminative feature learning behaviour for both branches due to potential over-low pre-branch independence and over-high inter-branch correlation. This may lead to sub- optimal joint learning of local and global feature selections in model optimisation, as suggested by our evaluation in Section4.3
3.HER model丈钙。主要用了regression loss魔慷,而JLML主要用的是classification loss。
4.DGD著恩。這篇文章我仔細(xì)看過,它用的也是classification loss。和JLML的區(qū)別在于 他是one-loss classification 而JLML是 multi-loss classifi- cation

模型設(shè)計

image.png
image.png

(Note that, the ReLU喉誊,rectification non-linearity [Krizhevsky et al., 2012] after each conv layer is omitted for brevity.)

兩個分支分別提取局部和全局特征邀摆。聯(lián)合學(xué)習(xí)體現(xiàn)在下面兩個方面:
1.low level的特征共享。有兩個好處伍茄,第一栋盹,共享特征,第二敷矫,減少參數(shù)例获,防止過擬合,尤其是在reID這個問題上曹仗,因?yàn)閞eID的數(shù)據(jù)集比較小
2.最后把兩個512維的特征向量疊加(local and global)

損失函數(shù)

這里他們的損失函數(shù)的選擇不同于大多數(shù)現(xiàn)存的deep reID方法榨汤,他們的損失函數(shù)主要用的是 cross- entropy classification loss function。顯存的deep reID方法主要用的contrastive loss怎茫,designed to exploit pairwise re-id labels de- fined by both positive and negative pairs, such as the pairwise verification收壕。代表之一是An improved deep learning architecture for person re- identification. In CVPR, 2015.
這么選擇損失函數(shù)的理由如下(不翻譯了,說的還挺有道理的):The motivations for our JLML classification loss based learning are: (i) Significantly simplified training data batch construc- tion, e.g. random sampling with no notorious tricks required, as shown by other deep classification methods [Krizhevsky et al., 2012]. This makes our JLML model more scalable in real-world applications with very large training population sizes when available. This also eliminates the undesirable need for carefully forming pairs and/or triplets in preparing re-id training splits, as in most existing methods, due to the inherent imbalanced negative and positive pair size distribu- tions. (ii) Visual psychophysical findings suggest that rep- resentations optimised for classification tasks generalise well to novel categories [Edelman, 1998]. We consider that re- id tasks are about model generalisation to unseen test iden- tity classes given training data on independent seen identity classes. Our JLML model learning exploits this general clas- sification learning principle beyond the strict pair-wise rela- tive verification loss in existing re-id models.大意就是不要用正負(fù)樣本這種形式轨蛤,直接用正樣本蜜宪。DGD這篇文章也是用的一樣的思想。

其他

最后就是一些訓(xùn)練細(xì)節(jié)祥山,以及對模型各種方法有和沒有的比較圃验,證明這些方法是有好處的。好處最明顯的就是聯(lián)合global和local特征了:

image.png

還有就是兩個分支單獨(dú)學(xué)習(xí)比一起學(xué)習(xí)要好:

image.png

其他的比如有沒有l(wèi)ow level的shared feature和metric learning的選擇缝呕,以及selective feature learning(就是那個看不懂的正則化)澳窑,作用甚微。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末岳颇,一起剝皮案震驚了整個濱河市照捡,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌话侧,老刑警劉巖栗精,帶你破解...
    沈念sama閱讀 206,839評論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異瞻鹏,居然都是意外死亡悲立,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,543評論 2 382
  • 文/潘曉璐 我一進(jìn)店門新博,熙熙樓的掌柜王于貴愁眉苦臉地迎上來薪夕,“玉大人,你說我怎么就攤上這事赫悄≡祝” “怎么了馏慨?”我有些...
    開封第一講書人閱讀 153,116評論 0 344
  • 文/不壞的土叔 我叫張陵,是天一觀的道長姑隅。 經(jīng)常有香客問我写隶,道長,這世上最難降的妖魔是什么讲仰? 我笑而不...
    開封第一講書人閱讀 55,371評論 1 279
  • 正文 為了忘掉前任慕趴,我火速辦了婚禮,結(jié)果婚禮上鄙陡,老公的妹妹穿的比我還像新娘冕房。我一直安慰自己,他們只是感情好趁矾,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,384評論 5 374
  • 文/花漫 我一把揭開白布耙册。 她就那樣靜靜地躺著,像睡著了一般愈魏。 火紅的嫁衣襯著肌膚如雪觅玻。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,111評論 1 285
  • 那天培漏,我揣著相機(jī)與錄音溪厘,去河邊找鬼。 笑死牌柄,一個胖子當(dāng)著我的面吹牛畸悬,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播珊佣,決...
    沈念sama閱讀 38,416評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼蹋宦,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了咒锻?” 一聲冷哼從身側(cè)響起冷冗,我...
    開封第一講書人閱讀 37,053評論 0 259
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎惑艇,沒想到半個月后蒿辙,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,558評論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡滨巴,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,007評論 2 325
  • 正文 我和宋清朗相戀三年思灌,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片恭取。...
    茶點(diǎn)故事閱讀 38,117評論 1 334
  • 序言:一個原本活蹦亂跳的男人離奇死亡泰偿,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出蜈垮,到底是詐尸還是另有隱情耗跛,我是刑警寧澤裕照,帶...
    沈念sama閱讀 33,756評論 4 324
  • 正文 年R本政府宣布,位于F島的核電站课兄,受9級特大地震影響牍氛,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜烟阐,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,324評論 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望紊扬。 院中可真熱鬧蜒茄,春花似錦、人聲如沸餐屎。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,315評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽腹缩。三九已至屿聋,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間藏鹊,已是汗流浹背润讥。 一陣腳步聲響...
    開封第一講書人閱讀 31,539評論 1 262
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留盘寡,地道東北人楚殿。 一個月前我還...
    沈念sama閱讀 45,578評論 2 355
  • 正文 我出身青樓,卻偏偏與公主長得像竿痰,于是被迫代替她去往敵國和親脆粥。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,877評論 2 345

推薦閱讀更多精彩內(nèi)容

  • 我還是不后悔影涉,愛你和不愛你的決定 只是一個人演的實(shí)在辛苦 我又偏偏生性就怕苦 我還是不后悔变隔,沒有向你道句珍重 只是...
    珠老三閱讀 294評論 0 0
  • 最近正打算進(jìn)修,找到一個網(wǎng)絡(luò)培訓(xùn)班蟹倾,里面的描述是這樣子的匣缘,也許課程開發(fā)者覺得這樣有說服力,說服力在哪里呢喊式,當(dāng)然是課...
    浪漫的高貴閱讀 429評論 6 11
  • 01 周末的這天準(zhǔn)時地還是在這個點(diǎn)醒孵户,這已經(jīng)顯然成為一個習(xí)慣,就像手機(jī)鬧鐘如果你定死了一個時間岔留,它就會在那個點(diǎn)準(zhǔn)時...
    黑發(fā)長衣閱讀 213評論 0 2
  • 11年來到這座小城的一個村子夏哭,它挨蒼山很近,如果俯瞰村落献联,整好是在山坳里竖配,從風(fēng)水學(xué)上看何址,是個宜居的地方。晏子還在學(xué)...
    太陽上de魚閱讀 240評論 0 0