自然語言生成工具箱 - CO2Sum(二)

文章名稱

【AAAI-2022】【Tencent AI Platform Department】CO2Sum:Contrastive Learning for Factual-Consistent Abstractive Summarization

核心要點(diǎn)

文章旨在抽象摘要生成方法存在的事實(shí)不一致的問題善镰,利用對(duì)比學(xué)習(xí)機(jī)制胧砰,代替原有的后處理和機(jī)制涤伐,保證生成的摘要具有factual-consistent性質(zhì)趴久。對(duì)比學(xué)習(xí)分別作用域seq2seq的encoder和decoder冒窍。encoder部分的對(duì)比學(xué)習(xí)幫助模型重視原始文本中的事實(shí)信息绞幌,decoder部分的對(duì)比學(xué)習(xí)幫助生成的事實(shí)一致的摘要减响。

上節(jié)講解了脚囊,作者針對(duì)摘要生成中事實(shí)錯(cuò)誤的問題提出的解決方案框架转晰,以及負(fù)樣本生成的思路芦拿。本節(jié)繼續(xù)介紹在編碼器和解碼器上的對(duì)比學(xué)習(xí)。

方法細(xì)節(jié)

問題引入

生成符合要求的負(fù)樣本后查邢,需要利用合理的訓(xùn)練方法蔗崎,讓模型重視原始文本中的事實(shí)信息。

作者分別在encoder和decoder兩個(gè)階段進(jìn)行對(duì)比學(xué)習(xí)扰藕,并采用BART[1]作為基礎(chǔ)的seq2seq模型缓苛。輸入的平行語料為D = \{ S_i, T_i\}_{i=1}^N,其中S, T為輸入的原始文本和目標(biāo)摘要邓深,每個(gè)摘要的長度為L(可以是padding后的長度未桥,也可以不是padding)。

seq2seq優(yōu)化的目標(biāo)是cross-entropy芥备,P_s是給定原始文本后冬耿,輸出對(duì)應(yīng)詞的條件概率。

seq2seq loss

具體做法

回顧一下CO2Sum的整體框架萌壳,


Framework of CO2Sum
  • 在編碼器上進(jìn)行對(duì)比學(xué)習(xí)亦镶。該模塊的目標(biāo)是在對(duì)文本進(jìn)行嵌入表示的時(shí)候,能夠把原始文本和事實(shí)正確的groudth的距離拉進(jìn)讶凉,而拉遠(yuǎn)其與負(fù)采樣樣本的距離染乌。由于負(fù)采樣和groudth之間的重點(diǎn)區(qū)別是事實(shí)正確性,因此encoder上的對(duì)比學(xué)習(xí)能夠保證模型對(duì)事實(shí)給予足夠的關(guān)注度懂讯,從而保證生成的摘要事實(shí)上是正確的荷憋。其示意如下圖所示。
    intuitive of contrastive learning encoder

    給定triplet樣本(S, T_gold, T_neg)褐望,encoder的優(yōu)化目標(biāo)如下圖所示勒庄。其中H(\cdot)表示對(duì)原始文本、groudth和負(fù)采樣的encoding瘫里。值得注意的是实蔽,這個(gè)嵌入式表示是文本上所有詞的嵌入的平均值K, \gamma分別表示負(fù)采樣的樣本數(shù)量以及softmax的temperature hyper-parameter谨读。\gamma的值越大區(qū)分正和負(fù)樣本的難度越大局装。
    encoder contrastive loss
  • 在解碼器上進(jìn)行對(duì)比學(xué)習(xí)。該模塊的目標(biāo)是糾正解碼過程中出現(xiàn)的事實(shí)錯(cuò)誤。作者借鑒[2]中的方法铐尚,利用正負(fù)樣本優(yōu)化max-margin loss拨脉。然而,[2]分別利用正負(fù)樣本計(jì)算詞平均CE損失宣增,但是作者發(fā)現(xiàn)這樣的實(shí)現(xiàn)會(huì)導(dǎo)致不穩(wěn)定玫膀,因?yàn)檎?fù)樣本中的大多數(shù)詞是相同的。因此爹脾,作者提出Position Masked (PM) max-margin loss帖旨,只在負(fù)樣本中替換的事實(shí)上計(jì)算損失(其實(shí)就是只計(jì)算那些事實(shí)上有錯(cuò)誤的地方的損失,忽略相同的方灵妨,省的混淆模型)解阅。對(duì)比損失的具體公式如下圖所示。其中闷串,R表示所有替換的位置瓮钥。
    decoder contrastive loss

    具體例子如下圖所示筋量,其中烹吵,groudth中位置3的詞“l(fā)etter”在負(fù)樣本中被替換為"request”,我們只需要關(guān)注這種詞桨武,而不應(yīng)該關(guān)注其他相同詞的損失(不要錯(cuò)誤的回傳梯度)肋拔。
    case of contrastive learning decoder

至此,我們得到了模型的全部的損失呀酸,具體公式如下圖所示凉蜂。其中CE仍然要繼續(xù)使用,負(fù)責(zé)生成語句連貫一致的摘要性誉。

total loss

心得體會(huì)

Position Masked (PM) max-margin loss

前兩天讀SimBert的博開窿吩,再看到這里,確實(shí)感覺“bert入戲错览,mask是演技”纫雁。個(gè)人感覺,就想微積分一樣倾哺,MLM需要學(xué)得不僅僅是它訓(xùn)練語言模型的思路轧邪,更是如何在多種場(chǎng)合想到利用masked技巧來達(dá)到需要實(shí)現(xiàn)的目的,畢竟只有mask做好了羞海,Transformer才能體現(xiàn)出序列性質(zhì)忌愚。

哦,多說一句却邓,感覺還有position encoding硕糊,這個(gè)前邊一些生成的文章里已經(jīng)講到了。

文章引用

[1] Lewis, M.; Liu, Y.; Goyal, N.; Ghazvininejad, M.; Mo- hamed, A.; Levy, O.; Stoyanov, V.; and Zettlemoyer, L. 2020. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Compre- hension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 7871–7880.

[2] Yang, Z.; Cheng, Y.; Liu, Y.; and Sun, M. 2019. Reduc- ing Word Omission Errors in Neural Machine Translation: A Contrastive Learning Approach. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 6191–6196.

[*] 魚與熊掌兼得:融合檢索和生成的SimBERT模型

[*] 然語言生成工具箱 - SOW-REAP(一)

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
禁止轉(zhuǎn)載,如需轉(zhuǎn)載請(qǐng)通過簡信或評(píng)論聯(lián)系作者简十。
  • 序言:七十年代末衙耕,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子勺远,更是在濱河造成了極大的恐慌橙喘,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,635評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件胶逢,死亡現(xiàn)場(chǎng)離奇詭異厅瞎,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)初坠,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,543評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門和簸,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人碟刺,你說我怎么就攤上這事锁保。” “怎么了半沽?”我有些...
    開封第一講書人閱讀 168,083評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵爽柒,是天一觀的道長。 經(jīng)常有香客問我者填,道長浩村,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,640評(píng)論 1 296
  • 正文 為了忘掉前任占哟,我火速辦了婚禮心墅,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘榨乎。我一直安慰自己怎燥,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,640評(píng)論 6 397
  • 文/花漫 我一把揭開白布蜜暑。 她就那樣靜靜地躺著铐姚,像睡著了一般。 火紅的嫁衣襯著肌膚如雪史煎。 梳的紋絲不亂的頭發(fā)上谦屑,一...
    開封第一講書人閱讀 52,262評(píng)論 1 308
  • 那天,我揣著相機(jī)與錄音篇梭,去河邊找鬼氢橙。 笑死,一個(gè)胖子當(dāng)著我的面吹牛恬偷,可吹牛的內(nèi)容都是我干的悍手。 我是一名探鬼主播,決...
    沈念sama閱讀 40,833評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼坦康!你這毒婦竟也來了竣付?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,736評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤滞欠,失蹤者是張志新(化名)和其女友劉穎古胆,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體筛璧,經(jīng)...
    沈念sama閱讀 46,280評(píng)論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡逸绎,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,369評(píng)論 3 340
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了夭谤。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片棺牧。...
    茶點(diǎn)故事閱讀 40,503評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖朗儒,靈堂內(nèi)的尸體忽然破棺而出颊乘,到底是詐尸還是另有隱情,我是刑警寧澤醉锄,帶...
    沈念sama閱讀 36,185評(píng)論 5 350
  • 正文 年R本政府宣布乏悄,位于F島的核電站,受9級(jí)特大地震影響榆鼠,放射性物質(zhì)發(fā)生泄漏纲爸。R本人自食惡果不足惜亥鸠,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,870評(píng)論 3 333
  • 文/蒙蒙 一妆够、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧负蚊,春花似錦神妹、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,340評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至伤极,卻和暖如春蛹找,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背哨坪。 一陣腳步聲響...
    開封第一講書人閱讀 33,460評(píng)論 1 272
  • 我被黑心中介騙來泰國打工庸疾, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人当编。 一個(gè)月前我還...
    沈念sama閱讀 48,909評(píng)論 3 376
  • 正文 我出身青樓届慈,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子金顿,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,512評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容