Adversarial Multi-task Learning for Text Classification

論文 : Adversarial Multi-task Learning for Text Classification

最近決定每周讀一篇GAN的論文污筷。一方面,提升自己的閱讀理解能力够傍。另一方面辛润,拓展自己的思路第煮。作為GAN的初學(xué)者撩炊,有很多表述不當(dāng)?shù)牡胤綒g迎大家批評(píng)指正!

標(biāo)題:對(duì)抗多任務(wù)學(xué)習(xí)用于文本分類(lèi)留夜。所謂多任務(wù)學(xué)習(xí)(MTL)就是指學(xué)習(xí)某一類(lèi)任務(wù)的通用知識(shí)(focus on learning the shared layers to extract the common and task-invariant features)匙铡。比如學(xué)習(xí)AlexNet,VGG的卷積部分(不含全連接層)碍粥。這樣學(xué)習(xí)出來(lái)的卷積特征通常表示一些通用的特征表示(類(lèi)似于SIFT鳖眼,HOG)。而利用全連接層嚼摩,就可以學(xué)的一些可以針對(duì)某個(gè)具體任務(wù)的特征钦讳,比如分類(lèi),分割枕面,檢測(cè)等愿卒。詳細(xì)可以看這篇關(guān)于多任務(wù)學(xué)習(xí)文章。

Abstract

作者提出利用GAN進(jìn)行多任務(wù)學(xué)習(xí)潮秘,可以緩解多任務(wù)學(xué)習(xí)中學(xué)習(xí)的shared knowledge存在task-specific features問(wèn)題琼开。

Introduction

作者為解決目前多任務(wù)學(xué)習(xí)中存在的問(wèn)題,設(shè)計(jì)了一個(gè)shared-private learning framework. 其主要關(guān)鍵點(diǎn)就是引入了對(duì)抗訓(xùn)練以及正交約束枕荞,這樣可以阻止 shared and private latent features from interfering with each other稠通。說(shuō)白了,作者就是要將task-specific features 以及 task-dependent features分開(kāi)來(lái)买猖,示意圖如下:

Shared-Private Model示意圖

舉個(gè)栗子,通用的shared-private model存在下面的問(wèn)題:

文本分類(lèi)任務(wù)存在的問(wèn)題舉例

第一句話的infantile是一個(gè)中性詞滋尉,但是第二句是貶義詞玉控。顯然,這是一個(gè)task-specific feature, 但是狮惜,目前的模型卻會(huì)把他們放到shared space高诺,這樣就會(huì)導(dǎo)致shared space 中的特征冗余碌识。為了解決這個(gè)問(wèn)題,作者提出的框架引入了正交約束虱而,使得shared-privete space 天生就是分離的筏餐。

作者提出的框架具有兩個(gè)關(guān)鍵點(diǎn):

  • 對(duì)抗訓(xùn)練:使得shared features space 僅僅包含通用的特征。
  • 正交約束:從private and shared space中消除冗余約束牡拇。

作者本文的工作有以下三點(diǎn):

  • 提出了一種更精確的劃分task-specific features 以及 shared space 的方法魁瞪,而不是以前那種通過(guò)shared parameters來(lái)粗糙的劃分。
  • 對(duì)于多類(lèi)問(wèn)題惠呼,拓展了以前的二值GAN导俘,不僅使得多任務(wù)可以聯(lián)合訓(xùn)練,而且還可以利用未標(biāo)記的數(shù)據(jù)剔蹋。
  • 將shared knowledge 濃縮到現(xiàn)成的layer中旅薄,使其可以很容易的遷移到新任務(wù)中。

LSTM用于文本分類(lèi)

LSTM可以表示為下式:

LSTM計(jì)算公式

對(duì)于分類(lèi)問(wèn)題泣崩,給定一個(gè)詞序列少梁,首先要學(xué)得每一個(gè)詞的向量表示(即詞嵌入,所謂詞嵌入矫付,是學(xué)得序列的一個(gè)向量表示凯沪,ont-encoding就是一種表示,但這樣通常維度很高技即,詞嵌入通常有一個(gè)降維過(guò)程著洼,word2vec就是一種詞嵌入方法),經(jīng)過(guò)LSTM之后而叼,其最后一個(gè)時(shí)刻的輸出h作為整個(gè)序列的特征表示身笤,而后跟上一個(gè)softmax非線性層預(yù)測(cè)每一類(lèi)的概率。


網(wǎng)絡(luò)的優(yōu)化目標(biāo)是交叉熵?fù)p失葵陵。

Multi-task Learning for TextClassification

多任務(wù)學(xué)習(xí)的關(guān)鍵就是在潛在的特征空間共享方案液荸。共享方案通常有兩種:

  • Fully-Shared Model (FS-MTL) :這種模型忽略了task-dependent特性
  • Shared-Private Model (SP-MTL) :這種模型對(duì)每個(gè)任務(wù)都引入了shared space 和 private space。分別用LSTM學(xué)得脱篙,并級(jí)聯(lián)娇钱。

示意圖如下:



上圖其實(shí)表示的就是多任務(wù)學(xué)習(xí)的兩種網(wǎng)絡(luò)框架,上述網(wǎng)絡(luò)的優(yōu)化目標(biāo)如下(alpha為各個(gè)任務(wù)的權(quán)重因子绊困,L表示交叉熵?fù)p失):


損失函數(shù)

Incorporating Adversarial Training

作者將shared space學(xué)得的特征丟到判別器中文搂,最大化判別器的損失,以達(dá)到對(duì)抗訓(xùn)練的目的秤朗。損失函數(shù)如下(d表示任務(wù)的類(lèi)型):


對(duì)于一個(gè)sentence煤蹭,LSTM生成一個(gè)特征表示誤導(dǎo)判別器,與此同時(shí),判別器嘗試盡可能減小判別誤差硝皂。此外常挚,從上面的公式可以看出,訓(xùn)練過(guò)程并未用到樣本的label稽物,所以可以將這個(gè)引入無(wú)監(jiān)督學(xué)習(xí)以解決相關(guān)問(wèn)題奄毡。

可以看出,上述模型還存在一個(gè)問(wèn)題贝或,那就是對(duì)抗訓(xùn)練只能保證task-dependent features 不進(jìn)入shared space吼过,但是task-invariant features還是會(huì)進(jìn)入private space。因此傀缩,作者受他人工作啟發(fā)那先,引入正交約束,對(duì)代價(jià)函數(shù)進(jìn)行懲罰赡艰,使LSTM盡量從不同層面提取特征售淡。懲罰函數(shù)如下:

懲罰函數(shù)

總結(jié)起來(lái),最終代價(jià)函數(shù)如下(lambda和gama為超參數(shù)慷垮,即各個(gè)loss的權(quán)重比例):


最終代價(jià)函數(shù)

網(wǎng)絡(luò)利用反向傳播進(jìn)行訓(xùn)練揖闸,對(duì)抗網(wǎng)絡(luò)的訓(xùn)練可以用gradient reverse layer。整體網(wǎng)絡(luò)框架如下:


作者提出的網(wǎng)絡(luò)框架

Experiment

效果不錯(cuò)料身,就不講啦汤纸。

作者本文的兩大關(guān)鍵點(diǎn)就是:對(duì)抗訓(xùn)練,正交約束芹血。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末贮泞,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子幔烛,更是在濱河造成了極大的恐慌啃擦,老刑警劉巖,帶你破解...
    沈念sama閱讀 206,839評(píng)論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件饿悬,死亡現(xiàn)場(chǎng)離奇詭異令蛉,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)狡恬,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,543評(píng)論 2 382
  • 文/潘曉璐 我一進(jìn)店門(mén)珠叔,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人弟劲,你說(shuō)我怎么就攤上這事祷安。” “怎么了兔乞?”我有些...
    開(kāi)封第一講書(shū)人閱讀 153,116評(píng)論 0 344
  • 文/不壞的土叔 我叫張陵汇鞭,是天一觀的道長(zhǎng)撇眯。 經(jīng)常有香客問(wèn)我,道長(zhǎng)虱咧,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 55,371評(píng)論 1 279
  • 正文 為了忘掉前任锚国,我火速辦了婚禮腕巡,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘血筑。我一直安慰自己绘沉,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,384評(píng)論 5 374
  • 文/花漫 我一把揭開(kāi)白布豺总。 她就那樣靜靜地躺著车伞,像睡著了一般。 火紅的嫁衣襯著肌膚如雪喻喳。 梳的紋絲不亂的頭發(fā)上另玖,一...
    開(kāi)封第一講書(shū)人閱讀 49,111評(píng)論 1 285
  • 那天,我揣著相機(jī)與錄音表伦,去河邊找鬼谦去。 笑死,一個(gè)胖子當(dāng)著我的面吹牛蹦哼,可吹牛的內(nèi)容都是我干的鳄哭。 我是一名探鬼主播,決...
    沈念sama閱讀 38,416評(píng)論 3 400
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼纲熏,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼妆丘!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起局劲,我...
    開(kāi)封第一講書(shū)人閱讀 37,053評(píng)論 0 259
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤勺拣,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后容握,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體宣脉,經(jīng)...
    沈念sama閱讀 43,558評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,007評(píng)論 2 325
  • 正文 我和宋清朗相戀三年剔氏,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了塑猖。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,117評(píng)論 1 334
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡谈跛,死狀恐怖羊苟,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情感憾,我是刑警寧澤蜡励,帶...
    沈念sama閱讀 33,756評(píng)論 4 324
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響凉倚,放射性物質(zhì)發(fā)生泄漏兼都。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,324評(píng)論 3 307
  • 文/蒙蒙 一稽寒、第九天 我趴在偏房一處隱蔽的房頂上張望扮碧。 院中可真熱鬧,春花似錦杏糙、人聲如沸慎王。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,315評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)赖淤。三九已至,卻和暖如春谅河,著一層夾襖步出監(jiān)牢的瞬間咱旱,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,539評(píng)論 1 262
  • 我被黑心中介騙來(lái)泰國(guó)打工旧蛾, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留莽龟,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 45,578評(píng)論 2 355
  • 正文 我出身青樓锨天,卻偏偏與公主長(zhǎng)得像毯盈,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子病袄,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,877評(píng)論 2 345

推薦閱讀更多精彩內(nèi)容