《Bidirectional Recurrent Convolutional Neural Network for Relation Classification》閱讀筆記

論文標(biāo)題:Bidirectional Recurrent Convolutional Neural Network for Relation Classification

來源:ACL 2016

問題:基于深度學(xué)習(xí)的關(guān)系抽取


主要方法


? ? 本文提出了一個(gè)基于最短依賴路徑(SDP)的深度學(xué)習(xí)關(guān)系分類模型,文中稱為雙向遞歸卷積神經(jīng)網(wǎng)絡(luò)模型(BRCNN)吼畏,結(jié)構(gòu)如下圖窜醉。

圖 1

文中提出雙向模型疗认,和以往的論文一樣,考慮到了實(shí)體之間關(guān)系的方向性打肝,如下圖2 SDP反向延旧,將原來(K + 1)個(gè)realtion 類擴(kuò)充到(2K + 1)個(gè)類(other 不考慮方向性),BRCNN分為兩個(gè)RCNN哨啃,一個(gè)前向(SDP為輸入),一個(gè)后向(反向的SDP為輸入)写妥。

圖 2

在每個(gè)RCNN中拳球,將SDP中的words和 words之間的dependency relation 分別用embeddings表示,并且將SDP中的words之間的dependency relation 和words分開到兩個(gè)獨(dú)立channel的LSTM珍特,使它們?cè)谶f歸傳播的時(shí)候不互相干擾醇坝。在convolution層把相鄰詞對(duì)應(yīng)的LSTM輸出和它們的dependency relation的LSTM輸出連結(jié)起來作為convolution層的輸入,在convolution層后接max pooling次坡。在pooling層后接softmax分類呼猪,共有三個(gè)softmax分類器,兩個(gè)RCNN的pooling分別接一個(gè)softmax做考慮方向的(2K + 1)個(gè)關(guān)系分類砸琅,兩個(gè)RCNN的pooling連到一個(gè)softmax做不考慮方向的(K + 1)個(gè)關(guān)系分類宋距。損失函數(shù)為三個(gè)softmax的cross-entropy 加上正則項(xiàng):

word embeddings 使用 word2vec 在 Gigaword 訓(xùn)練得到的200維的詞向量初始化, dependency relation embeddings 使用50維的隨機(jī)數(shù)初始化症脂,同一 dependency relation不同方向采用不同的 embeddings.


實(shí)驗(yàn)數(shù)據(jù)


基于經(jīng)典數(shù)據(jù)集SemEval-2010 Task8,取得了86.3的F1-score谚赎,下面是數(shù)據(jù)對(duì)比。

圖 3

相關(guān)工作


基于深度學(xué)習(xí)的關(guān)系抽取這篇文章對(duì)關(guān)系抽取的監(jiān)督學(xué)習(xí)和深度學(xué)習(xí)相關(guān)工作做了比較詳細(xì)的介紹诱篷。

傳統(tǒng)的有監(jiān)督的關(guān)系抽取系統(tǒng)需要大量的人工標(biāo)注的訓(xùn)練數(shù)據(jù)壶唤,從練數(shù)據(jù)中自動(dòng)學(xué)習(xí)關(guān)系對(duì)應(yīng)的抽取模式。有監(jiān)督關(guān)系抽取方法主要包括:基于核函數(shù)的方法[Zhao and Grishman 2005; Bunescu and Mooney 2006]棕所,基于邏輯回歸的方法[Kambhatla 2004]闸盔,基于句法解析增強(qiáng)的方法[Milleret al. 2000]和基于條件隨機(jī)場(chǎng)的方法[Culotta et al. 2006]。針對(duì)人工標(biāo)注訓(xùn)練數(shù)據(jù)需要花費(fèi)大量的時(shí)間和精力這個(gè)缺陷琳省,Mintz等人[Mintz et al. 2009]提出了遠(yuǎn)程監(jiān)督(Distant Supervision)的思想迎吵。作者們將紐約時(shí)報(bào)新聞文本與大規(guī)模知識(shí)圖譜Freebase(包含7300多個(gè)關(guān)系和超過9億的實(shí)體)進(jìn)行實(shí)體對(duì)齊。遠(yuǎn)程監(jiān)督假設(shè)针贬,一個(gè)同時(shí)包含兩個(gè)實(shí)體的句子蘊(yùn)含了該實(shí)體對(duì)在Freebase中的關(guān)系击费,并將該句子作為該實(shí)體對(duì)所對(duì)應(yīng)關(guān)系的訓(xùn)練正例。作者在遠(yuǎn)程監(jiān)督標(biāo)注的數(shù)據(jù)上提取文本特征并訓(xùn)練關(guān)系分類模型桦他,有效解決了關(guān)系抽取的標(biāo)注數(shù)據(jù)規(guī)模問題蔫巩。

傳統(tǒng)的有監(jiān)督的關(guān)系抽取嚴(yán)重依賴詞性標(biāo)注、句法解析等自然語(yǔ)言處理標(biāo)注提供分類特征快压,但是這些特征往往存在大量的錯(cuò)誤圆仔,在之后的訓(xùn)練過程中,這些錯(cuò)誤會(huì)影響關(guān)系抽取的結(jié)果嗓节。

很多研究人員開始考慮將深度學(xué)習(xí)運(yùn)用到關(guān)系抽取中荧缘,[Socher et al. 2012]提出使用遞歸神經(jīng)網(wǎng)絡(luò)來解決關(guān)系抽取問題,主要使用句子的句法信息拦宣,實(shí)體的位置和語(yǔ)義信息截粗,結(jié)合詞向量,通過遞歸神經(jīng)網(wǎng)絡(luò)來得到句子的向量表示鸵隧,再用于關(guān)系分類绸罗。[Zeng et al. 2014]提出采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行關(guān)系抽取。他們采用詞匯向量和詞的位置向量作為卷積神經(jīng)網(wǎng)絡(luò)的輸入豆瘫,通過卷積層珊蟀、池化層和非線性層得到句子表示。[Santos et al. 2015]還提出了一種新的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行關(guān)系抽取,其中采用了一種新的ranking損失函數(shù)育灸。[Miwa et al. 2016]提出了一種基于端到端神經(jīng)網(wǎng)絡(luò)的關(guān)系抽取模型腻窒。該模型使用雙向LSTM(Long-Short Term Memory,長(zhǎng)短時(shí)記憶模型)和樹形LSTM同時(shí)對(duì)實(shí)體和句子進(jìn)行建模磅崭。[Lin et al. 2016]提出了一種基于句子級(jí)別注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型來解決這個(gè)問題儿子,該方法能夠根據(jù)特定關(guān)系為實(shí)體對(duì)的每個(gè)句子分配權(quán)重。


簡(jiǎn)評(píng)


正如論文中提到砸喻,論文主要有兩個(gè)新穎點(diǎn):第一柔逼,使用兩個(gè)channel LSTM分別encode SDP的words 信息和dependency relation信息,使用convolution layer將兩部分連接起來割岛,使用LSTM學(xué)習(xí)SDP的全局信息愉适,使用convolution layer提取word之間的局部信息。結(jié)合了[Yan Xu et al. 2015]的多通道LSTM的特點(diǎn)和[Zeng et al. 2014]的卷積關(guān)系抽取的特點(diǎn)癣漆。 第二维咸,提出了雙向結(jié)構(gòu)同時(shí)分別學(xué)習(xí)SDP的前向和后向的句子表示信息,增強(qiáng)了對(duì)實(shí)體關(guān)系方向分類的能力扑媚。

將深度學(xué)習(xí)運(yùn)用到關(guān)系抽取中取得了很好的效果腰湾,但是最近幾年的論文模型的創(chuàng)新點(diǎn)不多,大多是之前的論文模型的結(jié)合和改進(jìn)疆股。大多基于句法樹的樹形LSTM或CNN模型或兩者結(jié)合费坊,將多種信息用于不同的通道。個(gè)人感覺這樣的方式來提升效果將越來越難旬痹,沿著這個(gè)方向的提升空間越來越小附井。目前關(guān)系抽取的深度學(xué)習(xí)模型都依然依賴于句法樹分析,句法樹存在較多錯(cuò)誤两残。有研究表明永毅,如果對(duì)于一個(gè)句子考慮其最可能的多個(gè)句法分析樹,分析結(jié)果準(zhǔn)確率可以得到較大提升人弓。將句子的多個(gè)可能句法樹信息結(jié)合起來用于關(guān)系抽取將是一個(gè)重要的研究方向沼死。


參考文獻(xiàn)


Zhao, Shubin, and RalphGrishman. Extracting relations with integrated information using kernel methods. In Proceedings of ACL, 2005.

Mooney, Raymond J., and Razvan C. Bunescu. Subsequence kernels for relation extraction. In Proceedings ofNIPS, 2005.

Kambhatla, Nanda. Combining lexical, syntactic, and semantic features with maximum entropy models for extracting relations. ?In Proceedings of ACL, 2004.

Culotta, Aron, Andrew McCallum,and Jonathan Betz. ?Integrating probabilistic extraction models and datamining to discover relations and patterns in text. ?In Proceedings of HLT-NAACL,2006.

Mintz, Mike, Steven Bills, RionSnow, and Dan Jurafsky. ?Distant supervision for relation extraction without labeled data. In Proceedings of ACL-IJCNLP, 2009.

Socher, Richard, et al. Semantic compositionality through recursive matrix-vectorspaces. Proceedings of EMNLP-CoNLL, 2012.

Santos Cicero Nogueira dos, Xiang Bing, Zhou Bowen. Classifying Relations by Ranking with Convolutional Neural Networks. In Proceedings of ACL,2015.

Daojian Zeng, Kang Liu, Siwei Lai, Guangyou Zhou, and Jun Zhao.Relation classification via con- volutional deep neural network. COLING,2014.

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市崔赌,隨后出現(xiàn)的幾起案子意蛀,更是在濱河造成了極大的恐慌,老刑警劉巖健芭,帶你破解...
    沈念sama閱讀 212,454評(píng)論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件县钥,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡慈迈,警方通過查閱死者的電腦和手機(jī)若贮,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,553評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人谴麦,你說我怎么就攤上這事蠢沿。” “怎么了细移?”我有些...
    開封第一講書人閱讀 157,921評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵搏予,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我弧轧,道長(zhǎng),這世上最難降的妖魔是什么碗殷? 我笑而不...
    開封第一講書人閱讀 56,648評(píng)論 1 284
  • 正文 為了忘掉前任精绎,我火速辦了婚禮,結(jié)果婚禮上锌妻,老公的妹妹穿的比我還像新娘代乃。我一直安慰自己,他們只是感情好仿粹,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,770評(píng)論 6 386
  • 文/花漫 我一把揭開白布搁吓。 她就那樣靜靜地躺著,像睡著了一般吭历。 火紅的嫁衣襯著肌膚如雪堕仔。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,950評(píng)論 1 291
  • 那天晌区,我揣著相機(jī)與錄音摩骨,去河邊找鬼。 笑死朗若,一個(gè)胖子當(dāng)著我的面吹牛恼五,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播哭懈,決...
    沈念sama閱讀 39,090評(píng)論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼灾馒,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了遣总?” 一聲冷哼從身側(cè)響起睬罗,我...
    開封第一講書人閱讀 37,817評(píng)論 0 268
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎彤避,沒想到半個(gè)月后傅物,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,275評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡琉预,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,592評(píng)論 2 327
  • 正文 我和宋清朗相戀三年董饰,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,724評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡卒暂,死狀恐怖啄栓,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情也祠,我是刑警寧澤昙楚,帶...
    沈念sama閱讀 34,409評(píng)論 4 333
  • 正文 年R本政府宣布,位于F島的核電站诈嘿,受9級(jí)特大地震影響堪旧,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜奖亚,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 40,052評(píng)論 3 316
  • 文/蒙蒙 一淳梦、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧昔字,春花似錦爆袍、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,815評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至夹攒,卻和暖如春蜘醋,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背芹助。 一陣腳步聲響...
    開封第一講書人閱讀 32,043評(píng)論 1 266
  • 我被黑心中介騙來泰國(guó)打工堂湖, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人状土。 一個(gè)月前我還...
    沈念sama閱讀 46,503評(píng)論 2 361
  • 正文 我出身青樓无蜂,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親蒙谓。 傳聞我的和親對(duì)象是個(gè)殘疾皇子斥季,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,627評(píng)論 2 350

推薦閱讀更多精彩內(nèi)容