ECCV 2016 person re-identification相關(guān) 第六篇
這篇文章也是human in the loop相關(guān)的
先放一張總圖:
主要意思就是說(shuō)蹂季,先通過(guò)有標(biāo)注的訓(xùn)練數(shù)據(jù)去訓(xùn)練similarity-dissimilarity model亭引,然后用訓(xùn)練得到的模型去測(cè)試驶乾,選出包含最多信息的pairs宽档,提供給user,uers給反饋,再更新model
主要思想之一 Low-Rank Sparse Similarity-Dissimilarity Learning
傳統(tǒng)特征表達(dá)x可能會(huì)是高維的,并且包含不具有辨別力的成分妥凳。因此作者希望提出能夠?qū)W到一個(gè)低秩矩陣竟贯,能夠自己決定具有辨別力的維度答捕。
為了達(dá)到上述的目的,作者提出:
- 學(xué)習(xí)一個(gè)相似度函數(shù)
其中K是rxd維的屑那,r<<d
- 找到一個(gè)P矩陣拱镐,把高維向量投影到低維(使用歐式距離)
上述兩者結(jié)合艘款,得到下面這個(gè)評(píng)分函數(shù)以及margin hinge loss:
這個(gè)loss的意思就是說(shuō),當(dāng)p和g兩個(gè)人的評(píng)分很接近(長(zhǎng)得很像)的時(shí)候沃琅,S值大于1哗咆,1-S小于0,把loss變成0益眉,當(dāng)兩個(gè)人的評(píng)分S很小晌柬,那么整個(gè)loss會(huì)很大,懲罰會(huì)很大郭脂。
那么上述的只是loss而已婆排,一般machine learning的套路還要加上正則項(xiàng)寂拆,這里的正則項(xiàng)就是這個(gè):
所以最后的loss function就是這樣的:
但是呢,上面這個(gè)式子雖然是凸的,但不平滑姐赡,為了解決這個(gè)問(wèn)題,作者引入了ADMM方法毕匀,這塊內(nèi)容我就不是很懂了翁潘,后面有時(shí)間再看一下這篇注明的論文,了解一下ADMM忍弛。
ADMM paper
ADMM相關(guān)資料1
ADMM相關(guān)資料2
主要思想之二 Model Adaptation with Reduced Human Effort
構(gòu)造完上述的loss func之后响迂,就要讓模型自我學(xué)習(xí)了,這里作者沒(méi)有完全用traning data细疚,而是和第一篇paper一樣加入了human-in-loop的思想栓拜,這里user參與分類的主要是這些與probe配對(duì)的gallery:These are persons for which the positive/negative association with the probe is very uncertain. Given a probe, such gallery persons form its probe relevant set
那么如何選取這些probe relevant set呢?作者采用了圖來(lái)表示probe set 和gallery set惠昔,并且采用主集合的方法來(lái)得到這樣一個(gè)劃分(probe relevant set)
h是劃分向量(維數(shù)和gallery的大小相同)幕与,它表達(dá)了the probability of participation of the corresponding person in the cluster,所謂的cluster镇防,就是指probe relevant set
然后初始化V后啦鸣,用下面的方法迭代更新,直到the objective function difference between two consecutive iterations is higher than a predefined threshold ε.
整個(gè)算法流程如下: