2021-12-15

論文閱讀:《A Simple Framework for Contrastive Learning of Visual Representations》

論文地址:https://arxiv.org/abs/2002.05709

SimCLR v1

論文閱讀:《Big Self-Supervised Models areStrong Semi-Supervised Learners》

論文地址:https://arxiv.org/abs/2006.10029

論文翻譯:https://zhuanlan.zhihu.com/p/213737892

SimCLR v2

論文代碼:https://github.com/google-research/simclr

代碼主要包含一下幾個(gè)部分:數(shù)據(jù)增強(qiáng):simclr/tf2/data.py? ? ? ? ? 網(wǎng)絡(luò)結(jié)構(gòu):simclr/tf2/resnet.py? ? ? ? ? ? ?Loss函數(shù):simclr/tf2/objective.py? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?網(wǎng)絡(luò)模型:simclr/tf2/model.py

SimCLR v1

作者們構(gòu)建了一種用于視覺(jué)表示的對(duì)比學(xué)習(xí)簡(jiǎn)單框架?SimCLR淌实,它不僅優(yōu)于此前的所有工作阅畴,也優(yōu)于最新的對(duì)比自監(jiān)督學(xué)習(xí)算法,而且結(jié)構(gòu)更加簡(jiǎn)單:這個(gè)結(jié)構(gòu)既不需要專門的架構(gòu),也不需要特殊的存儲(chǔ)庫(kù)堪嫂。由于采用了對(duì)比學(xué)習(xí)偎箫,這個(gè)框架可以作為很多視覺(jué)相關(guān)的任務(wù)的預(yù)訓(xùn)練模型抗愁,可以在少量標(biāo)注樣本的情況下闸餐,拿到比較好的結(jié)果茬高。

主要發(fā)現(xiàn):

多個(gè)數(shù)據(jù)增強(qiáng)方法對(duì)于對(duì)比預(yù)測(cè)任務(wù)產(chǎn)生有效表示非常重要

與監(jiān)督學(xué)習(xí)相比堵第,數(shù)據(jù)增強(qiáng)對(duì)于無(wú)監(jiān)督學(xué)習(xí)更加有用吧凉;

在表示和對(duì)比損失之間引入一個(gè)可學(xué)習(xí)的非線性變換可以大幅提高模型學(xué)到的表示的質(zhì)量;

與監(jiān)督學(xué)習(xí)相比踏志,對(duì)比學(xué)習(xí)得益于更大的批量和更多的訓(xùn)練步驟阀捅。

SimCLR的模型結(jié)構(gòu)
SimCLR具體流程
SinnCLR流程圖
更加簡(jiǎn)單明了的理解

創(chuàng)新點(diǎn)

1.數(shù)據(jù)增強(qiáng)

實(shí)驗(yàn)得出的結(jié)論是:?jiǎn)为?dú)使用一種數(shù)據(jù)增強(qiáng),對(duì)比學(xué)習(xí)的效果會(huì)很差针余;random cropping與random color distortion進(jìn)行組合效果最好饲鄙;數(shù)據(jù)增強(qiáng)對(duì)對(duì)比學(xué)習(xí)的影響非常明顯凄诞,這不是一個(gè)好的性質(zhì),很多時(shí)候我們需要進(jìn)行窮舉試錯(cuò)忍级。

一些主要的數(shù)據(jù)增強(qiáng)的方法

2.projection head


在representation與contrastive loss間使用可學(xué)習(xí)的non-linear projection帆谍,并證明效果較好。這邊使用可學(xué)習(xí)的網(wǎng)絡(luò)的優(yōu)勢(shì)在于避免計(jì)算 similarity 的 loss function 在訓(xùn)練時(shí)丟掉一些重要的feature颤练。論文中使用非常簡(jiǎn)單的單層MLP既忆,配上ReLU activation function作為non-linear projection。

3.對(duì)比損失函數(shù)

NT-Xent(the normalized temperature-scaled cross entropy loss)嗦玖,重點(diǎn)在于normalized embedding與appropriately adjusted temperature parameter

NT-Xent

sim(z_{i} ,z_{j} )表示計(jì)算兩個(gè)向量的余弦相似度患雇,\tau 為超參數(shù),2N張圖像的損失函數(shù)之和求平均宇挫,得到最終的損失函數(shù)苛吱,其實(shí)就是在進(jìn)行2N-1的分類。

算法偽代碼

4.加點(diǎn)負(fù)例

計(jì)算loss時(shí)多加了負(fù)例器瘪。以前都是拿右側(cè)數(shù)據(jù)的N-1個(gè)作為負(fù)例翠储,SimCLR將左側(cè)的N-1個(gè)也加入了進(jìn)來(lái),總計(jì)2(N-1)個(gè)負(fù)例橡疼。另外SImCLR不采用memory bank援所,而是用更大的batch size,最多的時(shí)候batch size為8192欣除,有16382個(gè)負(fù)例住拭。為了穩(wěn)定訓(xùn)練,對(duì)所有批量使用LARS優(yōu)化器历帚。我們使用云TPU訓(xùn)練我們的模型滔岳,根據(jù)批量大小使用32到128個(gè)核心。

在具有數(shù)據(jù)并行性的分布式訓(xùn)練中挽牢,BN均值和方差通常在每個(gè)設(shè)備上進(jìn)行局部聚合谱煤。在我們的對(duì)比學(xué)習(xí)中,由于正對(duì)是在同一個(gè)設(shè)備中計(jì)算的禽拔,該模型可以利用局部信息泄漏來(lái)提高預(yù)測(cè)精度刘离,而不需要改進(jìn)表示。我們通過(guò)在訓(xùn)練期間對(duì)所有設(shè)備的BN均值和方差進(jìn)行匯總來(lái)解決這個(gè)問(wèn)題睹栖。其他方法包括洗牌數(shù)據(jù)示例寥闪,或用層規(guī)范替換BN

In distributed training with data parallelism, the BN mean and variance are typically aggregated locally per device. In our contrastive learning, as positive pairs are computed in the same device, the model can exploit the local information leakage to improve prediction accuracy without improving representations. We address this issue by aggregating BN mean and variance over all devices during the training. Other approaches include shuffling data examples across devices , or replacing BN with layer norm .

拆分步驟:

數(shù)據(jù)增強(qiáng)
數(shù)據(jù)增強(qiáng)后的效果
編碼部分
對(duì)比損失函數(shù)? NT-Xent

稍微回顧一下:

unsupervised:是使用沒(méi)有標(biāo)注的數(shù)據(jù)訓(xùn)練模型

supervised:是使用了有標(biāo)注的數(shù)據(jù)訓(xùn)練模型

semi-supervised:是同時(shí)使用了有標(biāo)注與沒(méi)有標(biāo)注的數(shù)據(jù)訓(xùn)練模型。

而self-supervised翻成中文大概是自監(jiān)督學(xué)習(xí)磨淌,也就是沒(méi)有標(biāo)注資料也會(huì)自己會(huì)學(xué)習(xí)的方法疲憋,屬于unsupervised learning。

對(duì)比學(xué)習(xí)(Contrastive learning)

Contrastive learning是self-supervised learning中非常naive的想法之一梁只。像小孩子學(xué)習(xí)一樣缚柳,透過(guò)比較貓狗的同類之間相同之處與異類之間不同之處埃脏,在即使是在不知道什么是貓、什么是狗的情況下 (甚至沒(méi)有語(yǔ)言定義的情況)秋忙,也可以學(xué)會(huì)分辨貓狗彩掐。對(duì)比學(xué)習(xí)的基本概念,其實(shí)很簡(jiǎn)單灰追,這是一種試圖教會(huì)機(jī)器區(qū)分相似和不同的東西堵幽。


SimCLR v2

SimCLR v2模型結(jié)構(gòu)























參考資料:https://blog.csdn.net/weixin_42764932/article/details/112787761

? ? ? ? ? ? ? ? ??https://blog.csdn.net/dhaiuda/article/details/117906514

? ? ? ? ? ? ? ? ??https://blog.csdn.net/m0_37929824/article/details/104440694

? ? ? ? ? ? ? ? ??https://www.cnblogs.com/mpeter/p/14119217.html? ? ? ?

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市弹澎,隨后出現(xiàn)的幾起案子朴下,更是在濱河造成了極大的恐慌,老刑警劉巖苦蒿,帶你破解...
    沈念sama閱讀 218,941評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件殴胧,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡佩迟,警方通過(guò)查閱死者的電腦和手機(jī)团滥,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,397評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)报强,“玉大人灸姊,你說(shuō)我怎么就攤上這事”龋” “怎么了厨钻?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,345評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)坚嗜。 經(jīng)常有香客問(wèn)我,道長(zhǎng)诗充,這世上最難降的妖魔是什么苍蔬? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,851評(píng)論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮蝴蜓,結(jié)果婚禮上碟绑,老公的妹妹穿的比我還像新娘。我一直安慰自己茎匠,他們只是感情好格仲,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,868評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著诵冒,像睡著了一般凯肋。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上汽馋,一...
    開(kāi)封第一講書(shū)人閱讀 51,688評(píng)論 1 305
  • 那天侮东,我揣著相機(jī)與錄音圈盔,去河邊找鬼。 笑死悄雅,一個(gè)胖子當(dāng)著我的面吹牛驱敲,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播宽闲,決...
    沈念sama閱讀 40,414評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼众眨,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了容诬?” 一聲冷哼從身側(cè)響起娩梨,我...
    開(kāi)封第一講書(shū)人閱讀 39,319評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎放案,沒(méi)想到半個(gè)月后姚建,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,775評(píng)論 1 315
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡吱殉,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,945評(píng)論 3 336
  • 正文 我和宋清朗相戀三年掸冤,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片友雳。...
    茶點(diǎn)故事閱讀 40,096評(píng)論 1 350
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡稿湿,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出押赊,到底是詐尸還是另有隱情饺藤,我是刑警寧澤,帶...
    沈念sama閱讀 35,789評(píng)論 5 346
  • 正文 年R本政府宣布流礁,位于F島的核電站涕俗,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏神帅。R本人自食惡果不足惜再姑,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,437評(píng)論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望找御。 院中可真熱鬧元镀,春花似錦、人聲如沸霎桅。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,993評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)滔驶。三九已至遇革,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背澳淑。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,107評(píng)論 1 271
  • 我被黑心中介騙來(lái)泰國(guó)打工比原, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人杠巡。 一個(gè)月前我還...
    沈念sama閱讀 48,308評(píng)論 3 372
  • 正文 我出身青樓量窘,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親氢拥。 傳聞我的和親對(duì)象是個(gè)殘疾皇子蚌铜,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,037評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容