一顿锰、人臉識別綜述
這里找到兩篇較全面的綜述文章:
(1)基于深度學(xué)習(xí)的人臉識別技術(shù)綜述
(2)人臉識別長篇研究
(4)人臉檢測算法綜述
(5)人臉識別博客
1肺稀、在LFW數(shù)據(jù)集上例衍,獲得較優(yōu)秀結(jié)果的幾種人臉識別方法
(1)face++(0.9950)
(2)DeepFace(0.9735)
常規(guī)的人臉識別流程是:人臉檢測-對齊-表達-分類。本文采用額外的3d模型改進了人臉對齊方法雌隅,然后基于4million人臉圖像(4000個個體)訓(xùn)練的一個9層的人工神經(jīng)網(wǎng)絡(luò)來進行人臉特征表達窘问。本文有兩個亮點:一是采用3d模型的人臉對齊方法,二是大數(shù)據(jù)訓(xùn)練的人工神經(jīng)網(wǎng)絡(luò)隧期。
(3)FR+FCN(0.9645 )
自然條件下飒责,因為角度赘娄,光線,occlusions(咬合/張口閉口)读拆,低分辨率等原因擅憔,使人臉圖像在個體之間有很大的差異,影響到人臉識別的廣泛應(yīng)用檐晕。本文提出了一種新的深度學(xué)習(xí)模型暑诸,可以學(xué)習(xí)人臉圖像看不見的一面。因此辟灰,模型可以在保持個體之間的差異的同時个榕,極大的減少單個個體人臉圖像(同一人,不同圖片)之間的差異芥喇。與當(dāng)前使用2d環(huán)境或者3d信息來進行人臉重建的方法不同西采,該方法直接從人臉圖像之中學(xué)習(xí)到圖像中的規(guī)則觀察體(canonical? view,標準正面人臉圖像)继控。作者開發(fā)了一種從個體照片中自動選擇/合成canonical-view的方法械馆。在應(yīng)用方面,該人臉恢復(fù)方法已經(jīng)應(yīng)用于人臉核實武通。同時霹崎,該方法在LFW數(shù)據(jù)集上獲得了當(dāng)前最好成績。該文章的亮點在于:一冶忱,新的檢測/選擇canonical-view的方法尾菇;二,訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)來重建人臉正面標準圖片(canonical-view)囚枪。
(4)DeepID(0.9745 )
深度學(xué)習(xí)在人臉識別領(lǐng)域的應(yīng)用提高了人臉識別準確率派诬。本文中,我們使用了兩種深度神經(jīng)網(wǎng)絡(luò)框架(VGG net 和GoogleLeNet)來進行人臉識別链沼。兩種框架ensemble結(jié)果在LFW數(shù)據(jù)集上可以達到0.9745的準確率默赂。文章獲得高準確率主要歸功于大量的訓(xùn)練數(shù)據(jù),文章的亮點僅在于測試了兩種深度卷積神經(jīng)網(wǎng)絡(luò)框架括勺。
(5)FaceNet(0.9963)
作者開發(fā)了一個新的人臉識別系統(tǒng):FaceNet放可,可以直接將人臉圖像映射到歐幾里得空間,空間的距離代表了人臉圖像的相似性朝刊。只要該映射空間生成耀里,人臉識別,驗證和聚類等任務(wù)就可以輕松完成拾氓。該方法是基于深度卷積神經(jīng)網(wǎng)絡(luò)冯挎,在LFW數(shù)據(jù)集上,準確率為0.9963,在YouTube Faces DB數(shù)據(jù)集上房官,準確率為0.9512趾徽。FaceNet的核心是百萬級的訓(xùn)練數(shù)據(jù)以及 triplet loss。