人臉識別——margin來龍去脈

一 L-Softmax(ICML2016)

1. 前置工作:softmax, contrasive loss, tripliet loss,

2.?Preliminaries

L_S=-\frac{1}{M} \sum_{i=1}^Mlog\frac{e^{W_{y_i}^Tf(x_i)+b_{y_i}}}{\sum_{j=1}^Ce^{W_j^Tf(x_i)+b_j} } =-\frac{1}{M} \sum_{i=1}^Mlog\frac{e^{\left\|W_{y_i}^T\right\| \left\|f(x_i)\right\|cos(\theta _{y_i,i}) +b_{y_i}}}{\sum_{j=1}^Ce^{\left\|W_j^T\right\|\left\|f(x_i)\right\|cos(\theta _{j,i})+b_j} }

其中\theta _{j,i}是向量W_jx_i之間的夾角,去除偏置項之后锨络,精度幾乎保持不變曙搬,所以一般可將偏置項去除。

3. Intuition

考慮二分類問題,為了將樣本x_1正確分類到類別1永脓,原始的softmax是讓\left\|W_1^T\right\| \left\|f(x_1)\right\|cos(\theta _{1,1}) >\left\|W_2^T\right\| \left\|f(x_1)\right\|cos(\theta _{2,1})

為了讓分類更嚴格泥技,在\theta _{1,1}上乘以一個margin,由于cos函數(shù)在0到\pi 上單調(diào)遞減颓哮,所以:

\left\|W_1^T\right\| \left\|f(x_1)\right\|cos(\theta _{1,1}) >=\left\|W_1^T\right\| \left\|f(x_1)\right\|cos(m\theta _{1,1}) >\left\|W_2^T\right\| \left\|f(x_1)\right\|cos(\theta _{2,1})

新的分類準則在訓(xùn)練過程會更強烈的要求將x_1分類到類別1家妆,于是會產(chǎn)生更加嚴格的分類邊界。

4. Definition

L_l=-\frac{1}{M} \sum_{i=1}^Mlog\frac{e^{\left\|W_{y_i}^T\right\| \left\|f(x_i)\right\|\psi (\theta _{y_i,i}) }}{e^{\left\|W_{y_i}^T\right\| \left\|f(x_i)\right\|\psi (\theta _{y_i,i}) }+\sum_{j!=y_i}e^{\left\|W_j^T\right\|\left\|f(x_i)\right\|\psi (\theta _{j,i})} }

\psi (\theta ) =\left\{ \begin{array}{**lr**}cos(m\theta ) ,0\leq \theta\leq \frac{\pi}{m}   &  \\D(\theta ),\frac{\pi}{m} <\theta <\pi & \end{array}  \right.

m是個整數(shù)冕茅,表示margin伤极,越大分類邊界越分離,學(xué)習目標也越困難姨伤。paper中m=4時取得最好結(jié)果哨坪。

二 A-Softmax(?CVPR2017 :SphereFace)

1. 前置工作:softmax, contrasive loss, tripliet loss, center loss, L-softmax(直觀上看在其基礎(chǔ)上歸一化權(quán)重).

2. 從softmax loss到modified softmax loss(從優(yōu)化inner product到優(yōu)化angles):

L_S=-\frac{1}{M} \sum_{i=1}^Mlog\frac{e^{W_{y_i}^Tf(x_i)+b_{y_i}}}{\sum_{j=1}^Ce^{W_j^Tf(x_i)+b_j} } =-\frac{1}{M} \sum_{i=1}^Mlog\frac{e^{\left\|W_{y_i}^T\right\| \left\|f(x_i)\right\|cos(\theta _{y_i,i}) +b_{y_i}}}{\sum_{j=1}^Ce^{\left\|W_j^T\right\|\left\|f(x_i)\right\|cos(\theta _{j,i})+b_j} }

其中\theta _{j,i}是向量W_jx_i之間的夾腳。歸一化權(quán)重乍楚,并且將偏置置0当编,便可得到modified softmax loss:

L_{modified}=-\frac{1}{M}\sum_{i=1}^Mlog\frac{e^{\left\|f(x_i)\right\|cos(\theta _{y_i,i}) }}{\sum_{j=1}^Ce^{\left\|f(x_i)\right\|cos(\theta _{j,i})} }

該損失函數(shù)可以優(yōu)化角度邊界進而學(xué)習特征,但學(xué)習得到的特征依然沒有很好的辨別性--->angular margin徒溪,強化特征的可辨別性忿偷。

3. 從modified softmax loss到A-Softmax soll (使分類邊界更強,更可分)

L_{ang}=-\frac{1}{M} \sum_{i=1}^Mlog\frac{e^{ \left\|f(x_i)\right\|\psi (\theta _{y_i,i}) }}{e^{ \left\|f(x_i)\right\|\psi (\theta _{y_i,i}) }+\sum_{j!=y_i}e^{\left\|f(x_i)\right\|\psi (\theta _{j,i})} }

\psi (\theta _{y_i,i})=(-1)^kcos(m\theta _{y_i,i})-2k臊泌,paper中取m=4鲤桥。

三 L2-Softmax(2017)

1. 前置工作:softmax,?contrasive loss, tripliet loss,?center loss。

2. Softmax的主要問題:(1)訓(xùn)練和測試過程相互解耦缺虐,用該損失函數(shù)不能保證在歸一化的空間中正例對更接近芜壁,負例對更遠離;(2)處理難樣本和極限樣本的能力弱高氮,在一個質(zhì)量不平衡的訓(xùn)練batch內(nèi)慧妄,該函數(shù)通過增加簡單樣例特征的L2范數(shù)來小化。

3. 解決辦法:迫使每個圖片特征的L2范數(shù)為相同值剪芍,讓特征分布在一個固定半徑的球面塞淹。優(yōu)點1:在球面上最小化softmax loss等價于最大化正樣本對的cosine 相似度以及最小化負樣本對的cosine相似度;優(yōu)點2:由于所有人臉特征都有相同的L2范數(shù)罪裹,softmax loss能更好的處理難樣本和極限樣本饱普。

4. L2-softmax定義:\left\{ \begin{array}{**lr**}-\frac{1}{M}\sum_{i=1}^Mlog\frac{e^{W_{y_i}^Tf(x_i)+b_{y_i}}}{\sum_{j=1}^C e^{W_j^Tf(x_i)+b_j}}   , &  \\ \vert \vert f(x_i)\vert \vert_2=\alpha,\forall i=1,2,...,M & \end{array}  \right.

5. 新參數(shù)\alpha :讓該參數(shù)可學(xué)習的話运挫,優(yōu)化過程中會不斷變大,導(dǎo)致失去了該參數(shù)的意義套耕,更好的選擇是將它設(shè)定為一個較小的固定值(實驗驗證了可學(xué)習的方法精度會略微降低)谁帕。但是如果該值太小,訓(xùn)練將很難收斂冯袍,因為一個半徑很小的超球面表面積有限匈挖,以至不能很好的分開不同類的特征以及聚攏同一個類別的特征】捣撸——>類別數(shù)越多儡循,該值應(yīng)該越大。對于5w以下id征冷,取32择膝,5w以上實驗32,40检激,64肴捉。

四 NormFace(2017)

1. 前置工作:softmax, contrasive loss, triplet loss, center loss。

1. 當損失函數(shù)是softmax loss時呵扛,為什么進行特征比對時要歸一化特征每庆?由于softmax loss傾向于產(chǎn)生一個放射狀的特征分布,如果不對特征進行歸一化今穿,同一個類中兩個樣本的Euclidean距離往往會大于不同類中兩個樣本的距離缤灵。通過歸一化,便可采用兩個特征向量的cosine距離衡量相似度蓝晒。注意腮出,當全聯(lián)接層存在偏置b時,一些類別的特征會分布在原點附近芝薇,歸一化后胚嘲,將會拉伸這些特征,以至于出現(xiàn)這些類別特征分布重疊的現(xiàn)象洛二,所以在該工作中馋劈,去除了全聯(lián)接層的偏置b。

2. 如果直接優(yōu)化cosine相似度(歸一化softmax loss前面的特征和權(quán)重w)晾嘶,為什么不會收斂妓雾?由于cosine相似度的取值為[-1,1],這樣小的range會阻止正確類別的預(yù)測概率接近1垒迂。對于不同的類別數(shù)目和歸一化值械姻,softmax loss會對應(yīng)一個下限,如果把權(quán)重和特征歸一化到1机断,該下限會比較大楷拳,如果將二者歸一化到一個更大的值绣夺,該下限會持續(xù)降低』兑荆——> 在consine layer后添加scale layer:

L_{S}=-\frac{1}{M}\sum_{i=1}^Mlog\frac{e^{s\tilde{W} _{y_i}^T \tilde{f_i} }}{\sum_{j=1}^Ce^{s\check{W}_j^T \tilde{f}_i } }

3. 由于歸一化后采用softmax loss會難以收斂陶耍,有沒有其他的損失函數(shù)適合于歸一化后的特征?agent strategy:

L_{C} = \left\{ \begin{array}{**lr**}\vert\vert\tilde{f_i} -\tilde{w_j} \vert\vert_2^2 , c_i=j&  \\ max(0,m-\vert \vert \tilde{f_i} -\tilde{w_j} \vert \vert_2^2) ,c_i!=j& \end{array}  \right.  ,C-contrasive浸颓,建議margin:1物臂。

L_T=max(0,m+\vert\vert\tilde{f_i} -\tilde{W_j}\vert\vert_2^2 -\vert\vert\tilde{f_i} -\tilde{W_k} \vert\vert_2^2), C-triplet旺拉,建議margin:0.8产上。

W_j是第j個類別的summarizer。

4. 實驗結(jié)論:有pretrain模型的前提下蛾狗,歸一化后采用softmax loss也能得到reasonably的結(jié)果晋涣,如果隨機初始化,歸一化權(quán)重會造成訓(xùn)練collapse沉桌,歸一化特征will lead to a worse?accuracy谢鹊。當FAR較低的時候歸一化技術(shù)會表現(xiàn)得更好。

5. 一個trick:采用加法融合圖片的特征和mirror后的圖片的特征留凭,而不是concat佃扼。

五 AM-Softmax(2018)

1. 前置工作:softmax, L-softmax, A-softmax, contrasive loss,triplet loss蔼夜。

2. 定義

\psi (\theta )=cos\theta -m兼耀,可得:

L_{AMS}=-\frac{1}{M}\sum_{i=1}^Mlog\frac{e^{s(cos\theta_{y_i,i} -m)}}{e^{s(cos\theta_{y_i,i} -m)}+\sum_{j=1,j!=y_i}^Ce^{scos\theta _{j,i}} }

讓s可學(xué)習會收斂比較慢,所以固定s=30求冷。

3. Angular Margin 還是 Cos Margin

Sphere face --- Angular Margin; AM-Softmax -- Cos Margin瘤运。Angular Margin在概念上更好,但是Cos Margin對于計算更友好匠题,它能以較小的開銷達到和Angular Margin相同的目的拯坟。

4. CosFace(CVPR2018)方法基本一致。

六 ArcFace(CVPR2019)

1. 定義

L_{Arc}=-\frac{1}{M}\sum_{i=1}^Mlog\frac{e^{s(cos(\theta_{y_i,i} +m))}}{e^{s(cos(\theta_{y_i,i} +m))}+\sum_{j=1,j!=y_i}^Ce^{scos\theta _{j,i}} }

2. 在ArcFace中加入Inter-loss韭山,Intra-loss郁季,Triplet-loss,并沒有提升钱磅。

3. 訓(xùn)練得到的全聯(lián)接層W沒有通過模型計算出來的特征中心有代表性梦裂。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市续搀,隨后出現(xiàn)的幾起案子塞琼,更是在濱河造成了極大的恐慌,老刑警劉巖禁舷,帶你破解...
    沈念sama閱讀 217,542評論 6 504
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件彪杉,死亡現(xiàn)場離奇詭異毅往,居然都是意外死亡,警方通過查閱死者的電腦和手機派近,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,822評論 3 394
  • 文/潘曉璐 我一進店門攀唯,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人渴丸,你說我怎么就攤上這事侯嘀。” “怎么了谱轨?”我有些...
    開封第一講書人閱讀 163,912評論 0 354
  • 文/不壞的土叔 我叫張陵戒幔,是天一觀的道長。 經(jīng)常有香客問我土童,道長诗茎,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,449評論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上忿墅,老公的妹妹穿的比我還像新娘迎瞧。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 67,500評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般矾柜。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上泊业,一...
    開封第一講書人閱讀 51,370評論 1 302
  • 那天把沼,我揣著相機與錄音,去河邊找鬼吁伺。 笑死饮睬,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的篮奄。 我是一名探鬼主播捆愁,決...
    沈念sama閱讀 40,193評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼窟却!你這毒婦竟也來了昼丑?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,074評論 0 276
  • 序言:老撾萬榮一對情侶失蹤夸赫,失蹤者是張志新(化名)和其女友劉穎菩帝,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,505評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡呼奢,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,722評論 3 335
  • 正文 我和宋清朗相戀三年宜雀,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片握础。...
    茶點故事閱讀 39,841評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡辐董,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出禀综,到底是詐尸還是另有隱情简烘,我是刑警寧澤,帶...
    沈念sama閱讀 35,569評論 5 345
  • 正文 年R本政府宣布定枷,位于F島的核電站孤澎,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏依鸥。R本人自食惡果不足惜亥至,卻給世界環(huán)境...
    茶點故事閱讀 41,168評論 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望贱迟。 院中可真熱鬧,春花似錦絮供、人聲如沸衣吠。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,783評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽缚俏。三九已至,卻和暖如春贮乳,著一層夾襖步出監(jiān)牢的瞬間忧换,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,918評論 1 269
  • 我被黑心中介騙來泰國打工向拆, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留亚茬,地道東北人。 一個月前我還...
    沈念sama閱讀 47,962評論 2 370
  • 正文 我出身青樓浓恳,卻偏偏與公主長得像刹缝,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子颈将,可洞房花燭夜當晚...
    茶點故事閱讀 44,781評論 2 354