最近在實踐知識蒸餾過程中锻梳,在Pytorch中不同損失函數(shù)的作用也各有各的不同腕让。在查看Loss源碼時挺庞,發(fā)現(xiàn)具體的損失函數(shù)有_WeightedLoss隆嗅,L1Loss功舀,NLLLos...
IP屬地:青海
最近在實踐知識蒸餾過程中锻梳,在Pytorch中不同損失函數(shù)的作用也各有各的不同腕让。在查看Loss源碼時挺庞,發(fā)現(xiàn)具體的損失函數(shù)有_WeightedLoss隆嗅,L1Loss功舀,NLLLos...
1 前言 知識蒸餾辩蛋,其目的是為了讓小模型學到大模型的知識呻畸,通俗說,讓student模型的輸出接近(擬合)teacher模型的輸出悼院。所以知識蒸餾的重點在于擬合二字伤为,即我們要定義...
深度學習 (DeepLearning) 基礎(chǔ) [2]---神經(jīng)網(wǎng)絡(luò)常用的損失函數(shù) Introduce 在上一篇“深度學習 (DeepLearning) 基礎(chǔ) [1]---監(jiān)督...
本文為<Review on Graph Feature Learning and Feature Extrction Techniques for Link Predicti...