62.合理使用預訓練網(wǎng)絡-1

62.1 什么是微調(fine-tune)

  • 微調(fine-tune)丰捷,顧名思義指稍微調整參數(shù)即可得到優(yōu)秀的性能,是遷移學習的一種實現(xiàn)方式盗扒。
    • 微調和從頭訓練(train from scratch)的本質區(qū)別在于模型參數(shù)的初始化透罢,train from scratch通常指對網(wǎng)絡各類參數(shù)進行隨機初始化(當然隨機初始化也存在一定技巧),隨機初始化模型通常不具有任何預測能力定拟,通常需要大量的數(shù)據(jù)或者特定域的數(shù)據(jù)進行從零開始的訓練,這樣需要訓練到優(yōu)秀的模型通常是稍困難的逗嫡。
    • 而微調的網(wǎng)絡青自,網(wǎng)絡各類參數(shù)已經(jīng)在其他數(shù)據(jù)集(例如ImageNet數(shù)據(jù)集)完成較好調整的,具備了較優(yōu)秀的表達能力驱证。
    • 因此延窜,我們只需要以較小的學習速率在自己所需的數(shù)據(jù)集領域進行學習即可得到較為優(yōu)秀的模型。
  • 微調通常情況下抹锄,無須再重新設計網(wǎng)絡結構逆瑞,預訓練模型提供了優(yōu)秀的結構,只需稍微修改部分層即可伙单。
  • 在小數(shù)據(jù)集上获高,通常微調的效果比從頭訓練要好很多,原因在于數(shù)據(jù)量較小的前提下吻育,訓練更多參數(shù)容易導致過度擬合念秧。

62.2 微調有哪些不同方法?

  • 以圖像分類為例布疼,通常情況下由于不同數(shù)據(jù)集需要的類別數(shù)不同摊趾,我們需要修改網(wǎng)絡的輸出頂層币狠。這種情況下有兩種微調方式:
    • 不凍結網(wǎng)絡模型的任何層,對最后的改動層使用較大的學習率砾层,對未改動層以較小的學習率進行訓練全模型訓練漩绵,進行多輪訓練即可。即一步完成訓練肛炮。
    • 凍結除了頂部改動層以外的所有層參數(shù)止吐,即不對凍結部分的層進行參數(shù)訓練更新,進行若干輪的微調訓練后铸董,放開頂部層以下的若干層或者全部放開所有層的參數(shù)祟印,再次進行若干輪訓練即可。即分多步訓練粟害。
  • 以上兩種都屬于微調蕴忆。目前由于存在大量優(yōu)秀的預訓練模型,如何確定哪個模型適合自己的任務并能得到最佳性能需要花大量的時間探索悲幅。
    • 此時套鹅,上述的前者是種不錯訓練方式,你無須進行過多分步的操作汰具。
  • 而當探索到一個比較適合的模型時卓鹿,你不妨可以再次重新嘗試下以第二種方式進行訓練,或許能得到相比于前者稍高些的性能留荔,因為小數(shù)據(jù)集上調整過多的參數(shù)過擬合的機率也會增大吟孙,當然這并不是絕對的。

62.3 微調先凍結底層聚蝶,訓練頂層的原因杰妓?

  • 凍結多步訓練的方式。
    • 首先凍結除了頂部改動層以外的所有層參數(shù)碘勉,對頂層進行訓練巷挥,這個過程可以理解為頂層的域適應訓練,主要用來訓練適應模型的現(xiàn)有特征空間验靡,防止頂層糟糕的初始化倍宾,對已經(jīng)具備一定表達能力的層的干擾和破壞,影響最終的性能胜嗓。
    • 之后高职,在很多深度學習框架教程中會使用放開頂層往下一半的層數(shù),繼續(xù)進行微調辞州。
  • 這樣的好處在于越底層的特征通常是越通用的特征怔锌,越往上其整體的高層次語義越完備,這通過感受野很容易理解。
  • 所以产禾,若預訓練模型的數(shù)據(jù)和微調訓練的數(shù)據(jù)語義差異越大(例如ImageNet的預模型用于醫(yī)學圖像的訓練),那越往頂層的特征語義差異就越大牵啦,因此通常也需要進行相應的調整亚情。

大數(shù)據(jù)視頻推薦:
網(wǎng)易云課堂
CSDN
人工智能算法競賽實戰(zhàn)
AIops智能運維機器學習算法實戰(zhàn)
ELK7 stack開發(fā)運維實戰(zhàn)
PySpark機器學習從入門到精通
AIOps智能運維實戰(zhàn)
騰訊課堂
大數(shù)據(jù)語音推薦:
ELK7 stack開發(fā)運維
企業(yè)級大數(shù)據(jù)技術應用
大數(shù)據(jù)機器學習案例之推薦系統(tǒng)
自然語言處理
大數(shù)據(jù)基礎
人工智能:深度學習入門到精通

?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市哈雏,隨后出現(xiàn)的幾起案子楞件,更是在濱河造成了極大的恐慌,老刑警劉巖裳瘪,帶你破解...
    沈念sama閱讀 211,376評論 6 491
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件土浸,死亡現(xiàn)場離奇詭異,居然都是意外死亡彭羹,警方通過查閱死者的電腦和手機黄伊,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,126評論 2 385
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來派殷,“玉大人还最,你說我怎么就攤上這事≌毕В” “怎么了拓轻?”我有些...
    開封第一講書人閱讀 156,966評論 0 347
  • 文/不壞的土叔 我叫張陵,是天一觀的道長经伙。 經(jīng)常有香客問我扶叉,道長,這世上最難降的妖魔是什么帕膜? 我笑而不...
    開封第一講書人閱讀 56,432評論 1 283
  • 正文 為了忘掉前任枣氧,我火速辦了婚禮,結果婚禮上泳叠,老公的妹妹穿的比我還像新娘作瞄。我一直安慰自己,他們只是感情好危纫,可當我...
    茶點故事閱讀 65,519評論 6 385
  • 文/花漫 我一把揭開白布宗挥。 她就那樣靜靜地躺著,像睡著了一般种蝶。 火紅的嫁衣襯著肌膚如雪契耿。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,792評論 1 290
  • 那天螃征,我揣著相機與錄音搪桂,去河邊找鬼。 笑死,一個胖子當著我的面吹牛踢械,可吹牛的內(nèi)容都是我干的酗电。 我是一名探鬼主播昧捷,決...
    沈念sama閱讀 38,933評論 3 406
  • 文/蒼蘭香墨 我猛地睜開眼霉涨,長吁一口氣:“原來是場噩夢啊……” “哼彤委!你這毒婦竟也來了切威?” 一聲冷哼從身側響起租幕,我...
    開封第一講書人閱讀 37,701評論 0 266
  • 序言:老撾萬榮一對情侶失蹤惜辑,失蹤者是張志新(化名)和其女友劉穎涕刚,沒想到半個月后儡毕,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體交排,經(jīng)...
    沈念sama閱讀 44,143評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡划滋,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,488評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了埃篓。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片处坪。...
    茶點故事閱讀 38,626評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖架专,靈堂內(nèi)的尸體忽然破棺而出稻薇,到底是詐尸還是另有隱情,我是刑警寧澤胶征,帶...
    沈念sama閱讀 34,292評論 4 329
  • 正文 年R本政府宣布塞椎,位于F島的核電站,受9級特大地震影響睛低,放射性物質發(fā)生泄漏案狠。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,896評論 3 313
  • 文/蒙蒙 一钱雷、第九天 我趴在偏房一處隱蔽的房頂上張望骂铁。 院中可真熱鬧,春花似錦罩抗、人聲如沸拉庵。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,742評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽钞支。三九已至,卻和暖如春操刀,著一層夾襖步出監(jiān)牢的瞬間烁挟,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,977評論 1 265
  • 我被黑心中介騙來泰國打工骨坑, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留撼嗓,地道東北人。 一個月前我還...
    沈念sama閱讀 46,324評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像且警,于是被迫代替她去往敵國和親粉捻。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 43,494評論 2 348

推薦閱讀更多精彩內(nèi)容