知識(shí)蒸餾Knownledge Distillation

知識(shí)蒸餾源自Hinton et al.于2014年發(fā)表在NIPS的一篇文章:Distilling the Knowledge in a Neural Network

1. 背景

一般情況下,我們?cè)谟?xùn)練模型的時(shí)候使用了大量訓(xùn)練數(shù)據(jù)和計(jì)算資源來提取知識(shí),但這不方便在工業(yè)中部署美浦,原因有二:
(1)大模型推理速度慢
(2)對(duì)設(shè)備的資源要求高(大內(nèi)存)
因此我們希望對(duì)訓(xùn)練好的模型進(jìn)行壓縮,在保證推理效果的前提下減小模型的體量属拾,知識(shí)蒸餾(Knownledge Distillation)屬于模型壓縮的一種方法 [1]舞萄。

2. 知識(shí)蒸餾

名詞解釋:
cumbersome model:原始模型或者說大模型见转,但在后續(xù)的論文中一般稱它為teacher model;
distilled model:蒸餾后的小模型旗笔,在后續(xù)的論文中一般稱它為stududent model彪置;
hard targets:像[1, 0, 0]這樣的標(biāo)簽,也叫做ground-truth label换团;
soft targets:像[0.7, 0.2, 0.1]這樣的標(biāo)簽悉稠;
transfer set:訓(xùn)練student model的數(shù)據(jù)

好模型的目標(biāo)不是擬合訓(xùn)練數(shù)據(jù)宫蛆,而是學(xué)習(xí)如何泛化到新的數(shù)據(jù)艘包。所以蒸餾的目標(biāo)是讓student學(xué)習(xí)到teacher的泛化能力,理論上得到的結(jié)果會(huì)比單純擬合訓(xùn)練數(shù)據(jù)的student要好 [3]耀盗。顯然想虎,soft target可以提供更大的信息熵,所以studetn model可以學(xué)習(xí)到更多的信息叛拷。

通俗的來講舌厨,粗暴的使用one-hot編碼把原本有幫助的類內(nèi)variance和類間distance都忽略了,比如貓和狗的相似性要比貓與摩托車的相似性要多忿薇,狗的某些特征可能對(duì)識(shí)別貓也會(huì)有幫助(比如毛發(fā))裙椭,因此使用soft target可以恢復(fù)被one-hot編碼丟棄的信息 [2]。

在Hinton et al. 發(fā)表的這篇論文中署浩,作者提出了"softmax temperature"的概念揉燃,其公式為:
q_{i}=\frac{\exp (z_{i}/T)}{\sum_{j}^{}\exp (z_{j}/T)}
Python代碼:

import numpy as np
def softmax_t(x,t):
    x_exp = np.exp(x / t)
    return x_exp / np.sum(x_exp)

q_{i}代表第i類的輸出概率,z_{i}z_{j}為softmax的輸入筋栋,即上一層神經(jīng)元的輸出(logits)炊汤,T表示temperature參數(shù)。通常情況下弊攘,我們使用的softmax函數(shù)T為1抢腐,但T可以控制輸出soft的程度。比如對(duì)于z=[0.3, 0.5, 0.8, 0.1, 0.2]襟交,我們分別取T=[0.5, 1, 5, 20]迈倍,然后畫出softmax函數(shù)的輸出可以看到,T越小捣域,輸出的預(yù)測(cè)結(jié)果越“硬”(曲線更加曲折)啼染,T越大輸出的結(jié)果越“軟”(曲線更加平和)。

softmax.png

插一句題外話竟宋,為什么這里的參數(shù)是叫溫度(temperature)呢提完?這和蒸餾(distillation)這一熱力學(xué)工藝有關(guān)。在蒸餾工藝中丘侠,溫度越高提取到的物質(zhì)越純?cè)綕饪s徒欣。而在知識(shí)蒸餾中,參數(shù)T越大(溫度越高)蜗字,teacher model產(chǎn)生的label越"soft"打肝,信息熵就越高脂新,提煉的知識(shí)更具有一般性(generalization)。所以說作者將這一參數(shù)取名temperature十分有趣粗梭。

知識(shí)蒸餾示意圖争便,圖片來源:https://intellabs.github.io/distiller/knowledge_distillation.html

知識(shí)蒸餾的實(shí)現(xiàn)過程可以概括為:

  1. 訓(xùn)練teacher model;
  2. 使用高溫T將teacher model中的知識(shí)蒸餾到student model(在測(cè)試時(shí)溫度T設(shè)為1)断医。

student modeld的目標(biāo)函數(shù)由一下兩項(xiàng)的加權(quán)平均組成:

  1. distillation loss:soft targets(由teacher model產(chǎn)生) 和student model的soft predictions的交叉熵滞乙,這里的T使用的是和訓(xùn)練teacher model相同的值。(保證student model和teacher model的結(jié)果盡可能一致)
  2. student loss:hard targets 和student model的輸出數(shù)據(jù)的交叉熵鉴嗤,但T設(shè)置為1斩启。(保證student model的結(jié)果和實(shí)際類別標(biāo)簽盡可能一致)

總體的損失函數(shù)可以寫作:
\mathcal{L}(x,W)=\alpha \ast \text{CE}(y,\sigma(z_{s};T=1))+\beta \ast \text{CE}(\sigma (z_{t};T=\tau ),\sigma(z_{s},T=\tau))
其中,x表示輸入醉锅,W表示student model的參數(shù)兔簇,y是ground-truth label,\text{CE}是交叉熵?fù)p失函數(shù)硬耍,\sigma是剛剛提到的softmax temperature激活函數(shù)垄琐,z_{s}z_{t}分別表示student和teacher model神經(jīng)元的輸出(logits), \alpha\beta表示兩個(gè)權(quán)重參數(shù) [4].

原論文指出,\alpha要比\beta相對(duì)小一些可以取得更好的結(jié)果经柴,因?yàn)樵谇筇荻葧r(shí)soft targets被縮放了1/T^{2}狸窘,所以第2項(xiàng)要乘以一個(gè)更小的權(quán)值來平衡二者在優(yōu)化時(shí)的比重 [1].

換一個(gè)角度來想,這里的知識(shí)蒸餾其實(shí)是相對(duì)于對(duì)于原始交叉熵添加了一個(gè)正則項(xiàng):
\mathcal {L}(x,W)=\text{CE}(y,\hat{y})+\lambda \text{soft_loss}(y', \hat{y})
利用teacher model的先驗(yàn)知識(shí)對(duì)student model進(jìn)行正則化 [5]口锭。


References:

[1] Distilling the Knowledge in a Neural Network.
[2] # Distilling the Knowledge in a Neural Network 論文筆記
[3] 深度神經(jīng)網(wǎng)絡(luò)模型蒸餾Distillation
[4] Knowledge Distillation
[5] 神經(jīng)網(wǎng)絡(luò)知識(shí)蒸餾 Knowledge Distillation

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末朦前,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子鹃操,更是在濱河造成了極大的恐慌韭寸,老刑警劉巖,帶你破解...
    沈念sama閱讀 212,542評(píng)論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件荆隘,死亡現(xiàn)場(chǎng)離奇詭異恩伺,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)椰拒,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,596評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門晶渠,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人燃观,你說我怎么就攤上這事褒脯。” “怎么了缆毁?”我有些...
    開封第一講書人閱讀 158,021評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵番川,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我,道長(zhǎng)颁督,這世上最難降的妖魔是什么践啄? 我笑而不...
    開封第一講書人閱讀 56,682評(píng)論 1 284
  • 正文 為了忘掉前任,我火速辦了婚禮沉御,結(jié)果婚禮上屿讽,老公的妹妹穿的比我還像新娘。我一直安慰自己吠裆,他們只是感情好伐谈,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,792評(píng)論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著硫痰,像睡著了一般衩婚。 火紅的嫁衣襯著肌膚如雪窜护。 梳的紋絲不亂的頭發(fā)上效斑,一...
    開封第一講書人閱讀 49,985評(píng)論 1 291
  • 那天,我揣著相機(jī)與錄音柱徙,去河邊找鬼缓屠。 笑死,一個(gè)胖子當(dāng)著我的面吹牛护侮,可吹牛的內(nèi)容都是我干的敌完。 我是一名探鬼主播,決...
    沈念sama閱讀 39,107評(píng)論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼羊初,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼滨溉!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起长赞,我...
    開封第一講書人閱讀 37,845評(píng)論 0 268
  • 序言:老撾萬榮一對(duì)情侶失蹤晦攒,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后得哆,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體脯颜,經(jīng)...
    沈念sama閱讀 44,299評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,612評(píng)論 2 327
  • 正文 我和宋清朗相戀三年贩据,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了栋操。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,747評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡饱亮,死狀恐怖矾芙,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情近上,我是刑警寧澤剔宪,帶...
    沈念sama閱讀 34,441評(píng)論 4 333
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響歼跟,放射性物質(zhì)發(fā)生泄漏和媳。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 40,072評(píng)論 3 317
  • 文/蒙蒙 一哈街、第九天 我趴在偏房一處隱蔽的房頂上張望留瞳。 院中可真熱鬧,春花似錦骚秦、人聲如沸她倘。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,828評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽硬梁。三九已至,卻和暖如春胞得,著一層夾襖步出監(jiān)牢的瞬間荧止,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,069評(píng)論 1 267
  • 我被黑心中介騙來泰國(guó)打工阶剑, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留跃巡,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,545評(píng)論 2 362
  • 正文 我出身青樓牧愁,卻偏偏與公主長(zhǎng)得像素邪,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子猪半,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,658評(píng)論 2 350