轉(zhuǎn)載請(qǐng)注明作者:https://github.com/ahangchen
arxiv 2016 by Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian
Transfer Learning
舊數(shù)據(jù)訓(xùn)練得到的分類器陈瘦,在新的數(shù)據(jù)上重新訓(xùn)練娃闲,從而在新數(shù)據(jù)上取得比較好的表現(xiàn),新數(shù)據(jù)與舊數(shù)據(jù)有相似的地方闹啦,但具有不同的分布表窘。
Fine tuning一般步驟
這是InceptionV4的圖示
- 移除Softmax分類層
- 換成與目標(biāo)數(shù)據(jù)集輸出維數(shù)相同的Softmax層
- 凍結(jié)靠近輸入的卷積層
- 以較高的學(xué)習(xí)率訓(xùn)練分類層
- 以很低的學(xué)習(xí)率微調(diào)剩下的卷積層
論文核心模型
幾個(gè)創(chuàng)新點(diǎn):
- 對(duì)于CNN輸出的兩張圖的特征,使用了相同的dropout而非各自獨(dú)立的隨機(jī)dropout
- 使用了二分類加多分類兩種loss,二分類用于判斷兩張圖中的人是否相同姜凄,多分類用于描述兩張圖中各自的人物ID
- 分兩階段進(jìn)行Fine tune,先微調(diào)多分類趾访,再聯(lián)合二分類和多分類進(jìn)行微調(diào)态秧,避免多分類網(wǎng)絡(luò)不穩(wěn)定對(duì)二分類的影響
Unsupervised Transfer Learning
Self-training
- 將圖片均分為兩組(論文中是按攝像頭劃分的)
- 將B組中的每張圖片,與A組中CNN輸出相似度最高的圖片歸為一類扼鞋,從而構(gòu)造出多分類標(biāo)簽
- 喂入CNN訓(xùn)練
- 迭代多次
Co-training
- 由于CNN輸出的圖片相似度不一定真的可靠申鱼,存在噪音,因此Self-training效果沒(méi)有特別好
- 尋找一個(gè)互補(bǔ)的模型云头,將特征映射到另一個(gè)子空間中
- 將B組中的每張圖片捐友,與A組中子空間相似度最高的圖片歸為一類,構(gòu)造多分類標(biāo)簽
- 喂入CNN訓(xùn)練
- 迭代多次
Co-Model
(公式是用LaTeX格式寫(xiě)的溃槐,簡(jiǎn)書(shū)不支持匣砖,可以前往我的主頁(yè)查看)
- CNN計(jì)算得到深度特征: $$??=\theta(??)$$
- Learn a subspace defined by a dictionary D and a new representation Z in the subspace.
- $$(D^, Z^) = min_{D,Z} ||Y-DZ||_F^2 + \lambda\omega(Z)$$ s.t. $$||d_i||_2^2 \leq 1$$
- 其中$$||Y-DZ||_F^2$$是reconstruction error
- $$\omega(Z) = \sum_{i,j} W_{ij}||z_i - z_j||_2^2$$
- 當(dāng)$$y_i$$和$$y_j$$是最近鄰時(shí),$W_{ij}$為1昏滴,否則為0
- 從而最小化最近鄰的representation z的差異
Trick Result
- Softmax loss VS Multi loss: 76.6% -> 83.7%(Market1501)
- 一致的Dropout VS 隨機(jī)的Dropout: 80.8%-> 83.7% (Market1501)
- Two-stepped VS one-stepped: 47.6%->56.3%(VIPeR)
Supervised Transfer Learning Result
DataSet | State of the art | Transfer |
---|---|---|
CUHK03 | 75.3 | 85.4 |
Market1501 | 82.21 | 83.7 |
VIPeR | 53.5 | 56.3 |
PRID | 40.9 | 43.6 |
CUHK01 | 86.6 | 93.2 |
(表中都是top1準(zhǔn)確率)
Unsupervised Transfer Learning Result
DataSet | State of the art | Transfer |
---|---|---|
VIPeR | 33.5 | 45.1 |
PRID | 25.0 | 36.2 |
CUHK01 | 41.0 | 68.8 |
Compare with other unsupervised method
使用其他無(wú)監(jiān)督方法進(jìn)行實(shí)驗(yàn)對(duì)比
Method | Top1 acc |
---|---|
Self-training | 42.8 |
SubSpace | 42.3 |
Transfer | 45.1 |
CNN+AutoEncoder | 36.4 |
Adversarial | 22.8 |
其中SubSpace為只使用Co-Model猴鲫,不使用CNN模型,Self-training為只使用CNN模型谣殊,Transfer是兩者結(jié)合的Co-training拂共。
總體來(lái)說(shuō)這種無(wú)監(jiān)督的方法取得了比較好的效果,在小數(shù)據(jù)集上甚至超過(guò)了有監(jiān)督的效果姻几。
如果覺(jué)得我的文章對(duì)你有幫助匣缘,可以前往github點(diǎn)個(gè)star