Edge-Labeling Graph Neural Network for Few-shot Learning
摘要
? 在本文中密强,我們提出了一種新的邊標簽圖神經(jīng)網(wǎng)絡(luò) 俭茧,其在邊標簽圖上采用深度學習進行小樣本學習糜颠。以往用于小樣本學習的圖神經(jīng)網(wǎng)絡(luò)
方法基本上都是基于節(jié)點標簽框架裹匙,該框架對類內(nèi)相似疯攒、類間不同進行隱式建模儿惫。相反澡罚,我們提出的
學習預(yù)測圖上的邊標簽而不是節(jié)點標簽, 通過直接利用類內(nèi)相似肾请、 類間不同對邊標簽進行迭代更新留搔,從而實現(xiàn)顯式聚類。該網(wǎng)絡(luò)不需要重新訓練就能夠在不同數(shù)量上的類上執(zhí)行铛铁,并且很容易就可以進行
隔显,
的參數(shù)是通過
進行
訓練學習却妨,從而得到一個對于未見過的小樣本問題具有很好泛化能力的模型
。我們在兩個基準數(shù)據(jù)集上進行有監(jiān)督和半監(jiān)督小樣本圖像分類任務(wù)括眠,發(fā)現(xiàn)彪标,
的性能比現(xiàn)有的
的性能高。
1. 介紹
? 最近有許多領(lǐng)域?qū)? 感興趣掷豺,特別是在任務(wù)泛化問題上(比如捞烟,
,
,
,
,
),在這些元學習問題中当船,
的目的是基于先驗知識题画,能夠自動且有效地處理帶有少量標簽數(shù)據(jù)的新任務(wù)。這與傳統(tǒng)的深度學習方法不同德频,傳統(tǒng)的深度學習方法在處理任務(wù)的過程中婴程,高度依賴大量帶標簽數(shù)據(jù)以及人工調(diào)整。
? 最近抱婉, 引起了人們的興趣档叔,使用
能夠使用深度神經(jīng)網(wǎng)絡(luò)處理數(shù)據(jù)中的
結(jié)構(gòu)。
通過消息傳遞迭代性地對鄰居進行特征聚合蒸绩,因此可以表達數(shù)據(jù)實例之間的復(fù)雜關(guān)系衙四。由于小樣本學習算法需要充分利用
與
之間的關(guān)系,所以自然可以使用
來解決小樣本學習問題患亿,最近已經(jīng)提出了一些小樣本學習方法传蹈,具體來講:
? 1) 給定一個只有少量 的新任務(wù),
和
提出首先創(chuàng)建一個圖步藕,
的所有例子與
緊密相連惦界。輸入節(jié)點使用
進行表示(比如,一個
的輸出)咙冗,同時給定邊信息(比如沾歪,使用
對標簽進行編碼)。
? 2) 然后雾消,通過迭代更新 的節(jié)點特征灾搏,從而對無標簽的
進行分類。
? 等人提出基于節(jié)點特征的
立润,該節(jié)點特征是通過深度神經(jīng)網(wǎng)絡(luò)得到的狂窑。在測試階段,將整個
和
作為一個整體桑腮,使用一個常用的圖參數(shù)集對
編碼的標簽進行迭代傳播泉哈。在這里,我們需要注意的是,上述提及到的用于小樣本學習的
方法主要是基于節(jié)點框架丛晦,該框架對類內(nèi)相似巨缘、類間不同進行隱式建模。
? 相反采呐,邊標簽框架能夠通過表示學習和度量學習顯式地執(zhí)行聚類,因此搁骑,從直覺上講斧吐,它是一個更加有利于將 擴展到現(xiàn)有的
。此外仲器,它不需要預(yù)先指定聚類的數(shù)量(比如煤率,
),然而節(jié)點標簽框架必須根據(jù)聚類數(shù)分別訓練模型乏冀。顯式利用邊標簽來指明相連的兩個節(jié)點是否屬于同一個聚類(類別)蝶糯,以前在原始(超)圖上進行相關(guān)性聚類,并且在引用網(wǎng)絡(luò)或者動態(tài)系統(tǒng)中的
進行調(diào)整辆沦,但是從沒有應(yīng)用于小樣本學習的圖昼捍。因此,在本文中肢扯,我們提出邊標簽
用于解決小樣本學習問題妒茬,特別是小樣本分類任務(wù)。
? 我們提出的 由多個層組成蔚晨,每一層由 ==一個節(jié)點更新塊==和 ==一個邊更新塊== 組成乍钻,具體來講,
是跨層的铭腕,它不僅對節(jié)點特征進行更新银择,還顯式地調(diào)整邊特征,邊特征反映了相連兩個節(jié)點對的邊標簽累舷,并且直接利用了類內(nèi)相似和類間不同浩考。如圖
所示,在更新大量
和
之后被盈,可以從最后的邊特征得到邊標簽預(yù)測怀挠。然后通過計算邊損失來對
的參數(shù)進行更新,在這個過程中害捕,使用的策略是著名的
:
绿淋。
能夠執(zhí)行一次
用來預(yù)測所有的
,這說明當提供少量帶標簽訓練樣本的時候尝盼,在大多數(shù)情況下
能夠得到更加可靠的預(yù)測吞滞,此外,
中的邊標簽框架能夠在不
或者
的情況下處理不同的類。我們在兩個基準的小樣本圖像分類數(shù)據(jù)集上的實驗結(jié)果表明裁赠,無論是在監(jiān)督還是半監(jiān)督的情況下殿漠,
都比現(xiàn)有的
方法在內(nèi)的小樣本學習算法的效果更好。
? 我們的主要貢獻如下:
- 首次提出使用
用來解決小樣本學習問題佩捞,方式是利用類內(nèi)相似绞幌、類間不同對邊標簽進行迭代更新。在不進行重新訓練的情況下一忱,它也能夠很好地適用于執(zhí)行不同的類莲蜘。
- 網(wǎng)絡(luò)由若干層組成,每一層由節(jié)點更新塊和邊更新塊組成帘营,在
框架中對相應(yīng)的參數(shù)進行估計票渠。
- 使用
來研究
或者
。
- 在兩個基準數(shù)據(jù)集上進行監(jiān)督小樣本圖像分類和半監(jiān)督小樣本圖像分類任務(wù)芬迄。我們提出的
比現(xiàn)有的
性能上有顯著提升问顷。此外,進行
說明顯式聚類和單獨使用類內(nèi)相似禀梳、類間不同的好處杜窄。
2. 相關(guān)工作
? 圖神經(jīng)網(wǎng)絡(luò)
:最初提出的 是以
的形式直接用于處理圖結(jié)構(gòu)數(shù)據(jù)。
等人進一步利用
和現(xiàn)代優(yōu)化方法對其進行擴展算途。
主要是使用鄰域聚合框架進行表示學習羞芍,通過
和
鄰居節(jié)點特征來計算節(jié)點特征。還可以使用基于
的傳播規(guī)則對圖進行處理郊艘,其中
和
等人將該規(guī)則用于帶有
的圖數(shù)據(jù)的半監(jiān)督學習荷科。還提出了一些方法,這些方法將
用于
纱注,并且這些方法是基于節(jié)點標簽框架畏浆。
? 邊標簽圖
: 是一種圖劃分算法,它通過同時最大化類內(nèi)相似和類間不同來對邊標簽進行推斷狞贱。
和
考慮使用一個框架刻获,這個框架在
中使用結(jié)構(gòu)化
進行
聚類和新文章聚類。
推導(dǎo)出了一個
公式瞎嬉,該公式可以用于學習
的邊緣分數(shù)蝎毡,從而得到單個圖像的兩個不同的分割。
引入
用于自然語言任務(wù)氧枣,其考慮了多種邊類型和幾種圖轉(zhuǎn)換操作沐兵,圖轉(zhuǎn)換操作包括節(jié)點狀態(tài)更新、節(jié)點狀態(tài)傳播和邊更新便监。
? 小樣本學習
:基于表示學習的圖像分類是目前比較流行的方法扎谎,它根據(jù)表示之間的相似性使用最近鄰進行預(yù)測碳想。相似性可以是簡單的距離函數(shù)(比如, 距離或者
距離)毁靶。連體網(wǎng)絡(luò)使用可訓練的帶權(quán)
距離兩兩配對的方式進行工作胧奔。匹配網(wǎng)絡(luò)進一步使用注意力機制來推導(dǎo)可微的最近鄰分類器。原型網(wǎng)絡(luò)通過定義每個類的嵌入
的均值作為原型预吆。
引入
使用大規(guī)模的輔助標記數(shù)據(jù)集來提取
龙填,說明好的表示對于提升小樣本圖像分類的性能是有幫助的。
? 一個學習優(yōu)化模型參數(shù)的 在任務(wù)之間提取一些
拐叉,從而利用在小樣本學習環(huán)境下岩遗。
使用
作為模型更新器,并且將模型參數(shù)看成是其隱狀態(tài)巷嚣。通過讀取少量的樣本就可以學習參數(shù)的初始值并且對參數(shù)進行更新。
只學習參數(shù)的初始值钳吟,并且簡單地使用
廷粒,它是一種與模型無關(guān)的方法,適合于監(jiān)督學習任務(wù)和強化學習任務(wù)红且。
與
相似坝茎,但是只使用一階導(dǎo)數(shù)。另外一個通用的
暇番,
是時間卷積和軟注意力的一種新的結(jié)合嗤放,可以學習最佳的學習策略。
3. 方法
? 在這一節(jié)壁酬,我們介紹了小樣本分類任務(wù)的定義次酌,并且對所提出的算法進行了詳細的描述。
3.1 問題定義:小樣本分類
? 小樣本分類的目的是舆乔,在每個類只有少量訓練樣本的情況下學習出一個分類器岳服,因此,每個小樣本分類任務(wù) 中包含
希俩、它是一個帶標簽的
對的標簽集吊宋,還有一個
,一個不帶標簽的集合颜武,也是分類器需要進行分類的對象璃搜。如果
中含有
個不同類別,并且每個類別中有
個帶標簽的樣本鳞上,那么該問題可以定義為
分類問題这吻。
? 最近, 已經(jīng)成為了解決小樣本分類的標準方法篙议,在原則上橘原,我們可以訓練一個分類器,在任務(wù)中只有
的情況下,該分類器對每個
分配一個類標簽趾断。然而拒名,每個任務(wù)中的少量帶有標簽的
不足以訓練一個模型,這充分反映了類內(nèi)和類間的變量會導(dǎo)致分類性能不佳芋酌。顯式訓練集上的
通過提取
來解決這一問題增显,從而能夠成功地對
進行分類。
? 是
的一種有效的方法脐帝,該方法在許多文獻中都很常用同云,我們采用的方法也是這種方法。給定一個相對較大的帶標簽的訓練數(shù)據(jù)集堵腹,
的想法是對訓練任務(wù)
進行采樣炸站,該任務(wù)是模仿測試任務(wù)中的小樣本學習設(shè)置。在這里疚顷,由于訓練任務(wù)的分布與測試任務(wù)的分布相似旱易,因此可以通過在訓練任務(wù)上學習到一個模型,該模型能夠提升測試任務(wù)的性能腿堤。
? 具體來講阀坏,在 中,訓練任務(wù)和測試任務(wù)都是
問題笆檀,表達形式如下所示:
忌堂,其中
,
酗洒,在這里士修,
是
的個數(shù),并且
分別表示第
個輸入數(shù)據(jù)及其標簽樱衷,
表示訓練數(shù)據(jù)集或者測試數(shù)據(jù)集中所有類別的集合李命。即使訓練數(shù)據(jù)集和測試數(shù)據(jù)集都是從同一分布中進行采樣得到的,但是他們的標簽空間是互斥的箫老,即
封字。
在每個
中
作為帶標簽的數(shù)據(jù)集,然后使用此數(shù)據(jù)集來訓練模型耍鬓,訓練的方式是通過最小化預(yù)測值與
之間的損失阔籽。該訓練過程是通過迭代執(zhí)行
直到收斂。
? 最后牲蜀,如果 個樣本中有一部分是沒有標簽的笆制,那么稱該問題為半監(jiān)督小樣本分類,在第
節(jié)中涣达,我們的算法在半監(jiān)督設(shè)置上的結(jié)果不錯在辆。
3.2 模型
? 在這一節(jié)我們將對我們提出的用于小樣本學習的 模型進行講解证薇。如圖
所示,給定目標任務(wù)的所有樣本的特征表示(該特征表示是從聯(lián)合訓練的
中提取出來的):
首先構(gòu)造一個全連通圖咨察,其中一個節(jié)點代表一個樣本论熙,一條邊代表相連節(jié)點之間的關(guān)系類型;
不妨定義
為由任務(wù)
中的樣本構(gòu)造出來的圖摄狱,其中
表示節(jié)點集脓诡,
表示邊集。
不妨令
表示
節(jié)點特征二蓝,
表示
的邊特征誉券。
不妨令
表示任務(wù)
的所有的樣本數(shù)指厌。
邊標簽
的真實值使用真實的節(jié)點標簽進行定義:
邊特征
是一個二維向量刊愚,代表相連節(jié)點類內(nèi)和類間關(guān)系的標準化強度,因此能夠分別利用類內(nèi)相似踩验,類間不同鸥诽。
節(jié)點特征是通過卷積嵌入網(wǎng)絡(luò)
的輸出進行初始化的,其中
表示相應(yīng)的參數(shù)集(見圖
)
邊特征的初始化方式如下:
其中表示
? 我們使用 層的
來處理圖箕憾,
中用于
的前向傳播是通過層之間節(jié)點和邊的迭代更新得到的牡借。
? 詳細來講,給定來自于 層的節(jié)點
和邊
袭异。
首先通過鄰居聚合操作執(zhí)行
節(jié)點特征更新
:按比例通過聚合其余節(jié)點特征以及邊特征來對第層的節(jié)點特征
進行更新钠龙;
然后執(zhí)行特征變換;
將第
層的節(jié)點特征
用于相應(yīng)鄰接節(jié)點的貢獻度御铃。比如以下的注意力機制:
? 其中 碴里,并且
表示節(jié)點的特征轉(zhuǎn)換網(wǎng)絡(luò)(如圖
所示),該網(wǎng)絡(luò)的參數(shù)為
上真。需要注意的是咬腋,除了傳統(tǒng)的
類內(nèi)聚合
之外,我們還考慮了 類間聚合
睡互。類內(nèi)聚合
是對相似鄰居的目標節(jié)點信息進行聚合根竿,類間聚合
是對不相似鄰居的信息進行聚合陵像。
? 然后,邊特征是通過新更新的節(jié)點特征進行更新的(即依賴于節(jié)點特征)寇壳。再次得到每對節(jié)點之間的(相似)相異性醒颖,然后結(jié)合之前的邊特征值和更新后的(相似)相異性來對邊特征進行更新。公式表示如下所示:
其中 表示一個度量網(wǎng)絡(luò)九巡,該度量網(wǎng)絡(luò)(見圖
)用來計算參數(shù)集
之間的相似分數(shù)图贸,具體來講芋簿,節(jié)點特征流向邊礁凡,邊特征向量中的每個元素根據(jù)歸一化的類內(nèi)相似和類間不同進行單獨更新,即在邊更新過程中涯肩,不僅僅考慮了相應(yīng)節(jié)點對之間的關(guān)系撒汉,還有其余節(jié)點對之間的關(guān)系沟优。我們選擇使用兩個獨立的度量網(wǎng)絡(luò)來計算相似性和相異性(使用
來替代
)。
? 在更新完 個可選節(jié)點和邊特征更新之后挠阁,我們可以根據(jù)最終的邊特征得到邊標簽預(yù)測,即
溯饵,并且
侵俗,可以將其看成是兩個節(jié)點
來自同一類別的概率。因此丰刊,每個節(jié)點
可以通過對
進行簡單的
來進行分類隘谣。節(jié)點
的預(yù)測概率的計算公式為:
,并且
的表達形式如下:
其中 是
啄巧,表達公式如下
節(jié)點分類的另外一種方法是使用 寻歧;整個圖
可以首先通過邊預(yù)測和通過線性編程得到的有效劃分進行優(yōu)化,從而形成聚類(the entire graph G can be first partitioned into clusters, using the edge prediction and an optimization for valid partitioning via linear programming )秩仆。然后每個聚類可以使用最多的
進行標記码泛。但是在本文中,我們只應(yīng)用等式
得到了分類結(jié)果澄耍。在測試階段的
推導(dǎo)算法如算法
所示:
表中的 推導(dǎo)表示
或者是一個一個執(zhí)行
噪珊。而
推導(dǎo)是對一張圖中的所有的
進行分類。
3.3 訓練
? 給定M個訓練任務(wù) 齐莲,在
訓練期間的某個迭代中痢站,
中的參數(shù)
以端到端方式進行訓練,目的是最小化下面的損失函數(shù):
其中 是第
層第
個任務(wù)的所有真實值查詢邊標簽的集合铅搓,
是第
層第
個任務(wù)的所有真實值查詢邊預(yù)測的集合瑟押,并且邊損失
是通過
進行定義的。邊預(yù)測結(jié)果不僅可以通過最后一層得到星掰,還可以通過其他的層得到多望,所以
結(jié)合了所有層中的產(chǎn)生的計算損失嫩舟,提升較低層的
。
4. 實驗
? 我們與兩個小樣本學習基準(即 和
)的
方法進行評估和比較我們的
怀偷。
4.1 數(shù)據(jù)集
? miniInageNet
:它是最流行的小樣本學習基準家厌,其來源于原始的 數(shù)據(jù)集。所有的圖像都是
色彩椎工,大小為
像素饭于,從
個不同的類別中進行采樣,每個類別有
個樣本维蒙,我們對數(shù)據(jù)集的劃分方式為:
類用于訓練集掰吕,
類用于驗證集,
類用于測試集颅痊。
? tieredImageNet
:與 數(shù)據(jù)集相似殖熟,它也是
的子集,相比于
斑响,該數(shù)據(jù)集(超過
張圖像)有更多的類別(
個類別)菱属。最重要的是,與
數(shù)據(jù)集不同舰罚,
采取分層類別結(jié)構(gòu)纽门,其中
個類中的每一個類屬于從
的高級節(jié)點中采樣的
個高級類別中的一類,每一個高級類別含有
個類別营罢,數(shù)據(jù)集的劃分方式為:
類作為訓練類別
個類別赏陵;
驗證類別
個類別;
測試類別
個類別愤钾。每一個類別的樣本數(shù)平均為
瘟滨。
4.2 實驗設(shè)置
? 網(wǎng)絡(luò)架構(gòu)
:對于 模塊候醒,使用一個
能颁,該
由四個塊組成,和大多數(shù)小樣本學習模型差不多倒淫,我們沒有使用
伙菊。具體來講,每個卷積塊的組成分別為:一個
的卷積層敌土、一個
镜硕、一個
激活。
中使用的所有網(wǎng)絡(luò)架構(gòu)如圖
所示返干。
? 評估
:對于這兩個數(shù)據(jù)集兴枯,我們進行了 實驗,這是標準的小樣本學習設(shè)置之一矩欠。為了進行評估财剖,每個測試集都是對
個類別隨機取出
個
悠夯,并且使用在
上隨機生成的
個
取均值從而得到性能。特別是躺坟,我們還在
上面進行了更具挑戰(zhàn)性的
實驗沦补,進而顯示出我們的
模型在
和
階段不同的情況下的靈活性,這將在
中進行展示咪橙。
? 訓練
: 我們使用初始學習率為 夕膀、權(quán)值衰減為
的
對模型進行訓練,用于
過程中的
實驗使用的
為
美侦,用于
實驗使用的
為
产舞,對于
,我們每
個
對學習率進行減半處理菠剩,而對于
庞瘸,我們每
個
對學習率進行減半處理,因為該數(shù)據(jù)集是更大的赠叼,并且需要更多的
才能達到收斂擦囊。我們的代碼是使用
在
上進行實現(xiàn)的。
4.3 小樣本分類
在表 和表
中嘴办,將
模型和幾個
模型在小樣本分類的性能上作了比較瞬场。這這里,所有的模型都根據(jù)
的不同分為了三組:
表示
涧郊,
表示
贯被,即所有的
同時進行處理和預(yù)測,
表示使用
而不是
妆艘。這可以看成是在測試階段的一種
彤灶。
? 提出的 在
和
設(shè)置下進行測試,如表
所示批旺,
在
下的
設(shè)置幌陕、
和
設(shè)置下取得了最好的性能。值得注意的是汽煮,
的性能好于
搏熄,這說明了邊標簽框架對于小樣本學習的有效性。此外暇赤,
在兩個數(shù)據(jù)集上都優(yōu)于第二好的方法
心例,特別是在
數(shù)據(jù)集上的效果更好。表
顯示出鞋囊,相比于
設(shè)置止后,在
的
有了最好的性能以及較大的改進,在
網(wǎng)絡(luò)中溜腐,使用
译株,只基于節(jié)點特征相似度將
的標簽傳遞到
上微饥,因此
是僅僅通過
相似性與彼此進行消息傳遞。相反古戴,我們提出的
不僅可以傳播查詢節(jié)點的特征欠橘,還可以傳播具有不同參數(shù)集的圖層之間的邊標簽信息,從而能夠考慮到
之間的復(fù)雜交互现恼。此外肃续,
的節(jié)點特征是固定的,并且在標簽傳播過程中是不變的叉袍,從而能夠得到一個封閉式始锚、單步標簽傳播的公式。在我們的
中喳逛,節(jié)點特征和邊特征都是動態(tài)變化的瞧捌,并且能夠在進行幾次更新之后逐漸適應(yīng)新的任務(wù)。
4.4 半監(jiān)督小樣本分類
? 對于半監(jiān)督實驗曙砂,在 設(shè)置下, 只有部分
有標簽骏掀,帶標簽的樣本在類別之間是均衡的鸠澈,即所有的類別都有相同數(shù)量的帶標簽樣本和無標簽樣本,在
得到的結(jié)果如表
所示:
其中 表示僅僅使用帶有標簽的樣本進行學習截驮,
表示半監(jiān)督設(shè)置【部分樣本沒有標簽】笑陈,當只有
的
有標簽時,給出了不同的結(jié)果葵袭,并且我們將提出的
和
進行了比較涵妥,結(jié)果如表
所示,正如表
所示一樣眶熬,與
想比妹笆,半監(jiān)督學習在各個設(shè)置下性能都要好块请。需要注意的是娜氏,在半監(jiān)督學習中,特別是在帶標簽的樣本很少的情況下墩新,
的性能遠遠優(yōu)于先前的
贸弥。 在
下
,性能更好海渊。簡單來說绵疲,與
相比哲鸳,無論是在
或者
中,
能夠從無標簽數(shù)據(jù)中提取到更多的信息盔憨。
4.5
? 邊標簽 是一個深層架構(gòu)徙菠,該架構(gòu)中含有幾個節(jié)點更新層和邊更新層。因此郁岩,隨著模型越來越深婿奔,層數(shù)越來越多,任務(wù)樣本之間的
傳播會更加密集问慎,這使得結(jié)果更好萍摊。為了支撐這個觀點,我們比較了不同層數(shù)的
在小樣本學習上的性能如叼,結(jié)果如表
所示冰木,隨著
層數(shù)的增加,性能越來越好笼恰,特別是從一層變成兩層之后踊沸,性能有一個大的跳躍
,在三層的時候社证,只有一點點額外增益
雕沿。
? 的另外一個關(guān)鍵要素是在
過程中分別利用類內(nèi)相似和類間不同。為了驗證該方法的有效性猴仑,我們進行了僅僅使用類內(nèi)聚合的實驗审轮,并且將結(jié)果與使用兩種聚合得到的結(jié)果進行了比較,最終結(jié)果如表
所示辽俗,對于所有的
層疾渣,使用單獨的類內(nèi)聚合能夠明顯提升性能。
? 還需要注意的是崖飘,與之前的 相比榴捡,我們提出的
能夠更加有效地解決任意
設(shè)置下的小樣本問題,特別是
和
過程中樣本類別數(shù)不同的情況下朱浴。為了驗證這個說法吊圾,我們使用
執(zhí)行了
實驗,結(jié)果如表
所示翰蠢,在這里项乒,模型在
設(shè)置下進行訓練,在
設(shè)置下進行測試梁沧,反之亦然檀何。有趣的是,兩種
的方式得到的結(jié)果與
設(shè)置下得到的結(jié)果是相似的。因此频鉴,我們能夠觀察到栓辜,在不進行重新訓練模型的情況下,
能夠成功地擴展到不同的小樣本設(shè)置垛孔。而之前的
是不同應(yīng)用于
設(shè)置中的藕甩,因為模型的大小和參數(shù)取決于
的數(shù)目。
? 圖 顯示了
和
的節(jié)點特征的
可視化周荐,在第一層傳播之后辛萍,
在
中表現(xiàn)出好的聚類效果,然而羡藐,
被嚴重聚類在一起了贩毕,并且根據(jù)每個標簽,
和 他們的
不會靠近仆嗦,特別是在具有更多層的傳播中辉阶,這就意味著
中的最后一個全連接層在
中扮演著很多角色。相反瘩扼,在
中谆甜,隨著層的傳播,如果標簽不同集绰,
和
都會被拉開规辱,同時,同樣標簽的
和
可以靠近栽燕。
? 為了進一步分析,在圖 中鸵赫,顯示了
是如何傳播信息的衣屏,從初始特征開始 (所有
的邊特征都初始化為
),邊特征最終演變成類似于真實標簽的標簽奉瘤,因為它通過了幾個
層勾拉。
5. 結(jié)論
? 這項工作解決了小樣本學習問題染坯,特別是小樣本分類任務(wù)均芽。我們提出 的目的是通過迭代更新邊標簽來推斷
與
之間的關(guān)聯(lián)。在
的過程中单鹿,通過具有不同參數(shù)集的圖層掀宋,顯示利用類內(nèi)相似、類間不同來對
和
特征進行更新仲锄。 并且將最終的邊預(yù)測結(jié)果作為邊標簽預(yù)測劲妙。使用邊標簽損失來對
的
中的參數(shù)進行更新,實驗結(jié)果也表明儒喊,無論是在有監(jiān)督小樣本分類還是半監(jiān)督小樣本分類任務(wù)上镣奋,
的性能優(yōu)于其余的小樣本算法。并且我們提出的框架能夠適用于各種
任務(wù)怀愧。對于未來的工作侨颈,我們可以考慮另外一種訓練損失,該損失是與
是相關(guān)的芯义。另外一個方式是圖稀疏化(比如構(gòu)建
)肛搬,這使得我們的算法對于大樣本具有擴展性。