一下子就二月了~時間真的好快 進度條被迅速拉近~也快過年了汛蝙。
我現(xiàn)在雖然有一些粉絲 贊也不少 但我不知道真正還有在看的有多少人 因為最近遇到一些事情 所以想說一下
我的本意就是記錄自己的學(xué)習(xí)和一些知識 并不是說在和朋友圈一樣在分享生活 所以希望簡信更多的是知識交流哈~ thanks
今天簡單記錄一個小知識點 (論文閱讀要拖到年后了吧~)
Margin Disparity Discrepancy
What?
我是在閱讀小樣本域適應(yīng)即:《Few-Shot Learning as Domain Adaptation: Algorithm and Analysis》該論文中看到Margin Disparity Discrepancy這個概念的,文中將其稱為間隔差異。有興趣的可以看看論文摇庙,地址如下:
論文的地址:
https://arxiv.org/pdf/2002.02050.pdf
論文閱讀參考:https://blog.csdn.net/weixin_42137700/article/details/106927167
后來覆旱,找到了概念出處即論文《Bridging Theory and Algorithm for Domain Adaptation》
論文地址:
http://ise.thss.tsinghua.edu.cn/~mlong/doc/domain-adaptation-theory-icml19.pdf那接下來先簡單說說什么是MDD痘番?
看到有的博客也稱為間隔分歧散度汛闸,那其實和間隔差異之稱是異曲同工的蝙茶,它是用在特征空間對齊目標域和源域,是屬于一種度量準則诸老,是域適應(yīng)或者遷移學(xué)習(xí)中會使用到的隆夯。曬出定義:1.首先我們通過約束假設(shè)空間來測量分布差異。 給定兩個假設(shè)h别伏,h'∈H蹄衷,我們對它們之間的(期望、經(jīng)驗)0-1差距進行定義畸肆。
2.接下來是DD差異的定義:給定假設(shè)空間H和特定的分類器h∈H(注意:這邊的差異不僅取決于假設(shè)空間H宦芦,而且還取決于特定的分類器H,具體的關(guān)于DD的證明推導(dǎo)可以看上述論文的附錄轴脐,這邊不具體展開)
3.提出MDD
在多分類的情況下调卑,評分函數(shù)的邊際(the margin of scoring
functions)成為信息泛化界的一個重要因素。現(xiàn)有的領(lǐng)域適應(yīng)理論沒有給出與評分函數(shù)和邊際損失綁定的泛化的形式化分析大咱。為了彌合通常用對稱性和次可加性分析標簽函數(shù)和損失函數(shù)的理論與廣泛采用評分函數(shù)和邊際損失的算法之間的差距恬涧,我們提出了一種基于邊際的差異,即MDD碴巾。
邊際差異溯捆,將0-1損失更改為邊際損失的差異及其從假設(shè)f到f'的經(jīng)驗形式定義為:(注意:f和f'是評分函數(shù),而和是它們的標記函數(shù)厦瓢。)
MMD的完整定義如下:(P\Q為源域和目標域)
在遷移學(xué)習(xí)的網(wǎng)絡(luò)圖如上所示提揍。總的來說煮仇,MDD就是一個改進后的度量差異的準則劳跃,用來在域適應(yīng)中對齊源域和目標域特征空間的。
后續(xù)如有再深入讀附錄再更新浙垫。
(ps:這是MDD[Margin Disparity Discrepancy]而不是MMD[Maximum mean discrepancy]來自經(jīng)撑俾兀混在一起的本人善意提醒哈)!
年后見~
提前牛年快樂大家夹姥!