文章名稱
【ACL-2019】A Deep Generative Framework for Paraphrase Generation
核心要點
上一屆主要講解了作者提出的釋義生成的模型結(jié)構(gòu)使套。本解講解如何對該模型的參數(shù)進行學(xué)習(xí)妆绞,以及模型之上利用無監(jiān)督的領(lǐng)域遷移技術(shù),實現(xiàn)跨預(yù)料的釋義短語生成渔期。
方法細節(jié)
問題引入
可以通過最最大化如下圖所示的條件概率來進行端到端的訓(xùn)練某筐,但是從頭開始學(xué)習(xí)不能為分割器和聚合器提供(特別)有用的監(jiān)督信息,因此并不是最佳的訓(xùn)練方式吠谢。
具體做法
為了解決分割器和聚合器訓(xùn)練的問題晦嵌,作者利用弱監(jiān)督的方式,利用[1]中的詞對齊模型荸实,建立平行(釋義)語料中匀们,詞與詞之間的對應(yīng)關(guān)系,并隨機sample一些(包含罕見詞匯的)對其后的短語對准给,給他們賦予標簽(即具有短語級別的釋義粒度)泄朴,其他部分標簽為句子級別方咆。并以此為監(jiān)督信息隅居,在初期指導(dǎo)模型參數(shù)學(xué)習(xí)。隨著迭代的深入券腔,逐漸弱化這個顯示監(jiān)督信息的影響畔规。整個監(jiān)督的損失函數(shù)如下圖所示局扶,其中
是超參數(shù),逐漸被從1減弱到0叁扫。
我們可以利用ROUGE三妈、BLEU、iBELU等指標對模型生成的句子進行評價莫绣。除了這些量化指標之外畴蒲,我們還可以基于DNPG模型的一些特性,對模型生成結(jié)果進行可解釋性的分析对室。例如模燥,利用DNPG預(yù)測的每個單詞的釋義粒度(詞/短語還是句子)以及Multi-Head Attention的注意力結(jié)果,我們可以提取詞掩宜、短語釋義對蔫骂,或者是釋義句式。具體的說锭亏,1)通過注意力的激活值纠吴,可以觀測到詞/短語的對齊;2)通過把對齊的詞/短語利用統(tǒng)一的占位符進行替換慧瘤,我們可以得到固定的句式戴已。具體的提取方法如下圖算法所示。
此外锅减,可以通過手動指定輸入語句每一個短語的釋義粒度標簽糖儡,并且調(diào)整模型參數(shù)和結(jié)構(gòu),實現(xiàn)對釋義生成過程的控制怔匣。例如握联,1)期望生成句子級別的釋義桦沉,可以強制要求詞/短語級別的解碼器使用copy模式()保證詞/短語粒度的釋義結(jié)構(gòu)不變,同時利用特殊的占位符替換詞/短語金闽,在實現(xiàn)句子級別釋義生成后替換回詞/短語纯露;2)期望實現(xiàn)詞/短語粒度的釋義,可以只利用詞/短語粒度的釋義的解碼器進行釋義生成代芜,并且只生成所有詞的釋義粒度標簽不是句子層級的位置埠褪。
當需要進行釋義生成的領(lǐng)域沒有平行語料的時候,需要進行無監(jiān)督的領(lǐng)域遷移挤庇。我們可以直接利用訓(xùn)練好的釋義生成模型在目標域上進行生成钞速,但是由于兩個領(lǐng)域的語言模型可能不一致,需要進行遷移嫡秕。作者利用RL的方法把分隔器遷移到目標域渴语,優(yōu)化的目標函數(shù)如下圖所示。
其中昆咽,表示到當前位置生成的分割的reward驾凶,而
表示在源語料域上訓(xùn)練的語言模型,該模型被用來在目標與上充當語言模型來產(chǎn)生得分函數(shù)潮改,指導(dǎo)分割器訓(xùn)練狭郑。作者采用這個方法構(gòu)造reward的理念在于,兩個語料領(lǐng)域共享相同的句式結(jié)構(gòu)汇在。
用來懲罰被標記為詞/短語釋義類別的長句子片段翰萨,因為長片段應(yīng)該被識別為句子級別的釋義,這個級別的釋義具有更多的語義信息糕殉。整個算是函數(shù)采用Policy Gradient進行優(yōu)化亩鬼。訓(xùn)練的流程圖如下圖所示。
心得體會
領(lǐng)域遷移
作者進行領(lǐng)域遷移的時候阿蝶,假設(shè)的是句子模式是一致的雳锋,并且利用語言模型來調(diào)整分割器。這種思路在相同語種和句法結(jié)構(gòu)比較相似的語料是可以實現(xiàn)的羡洁。但是在語法風(fēng)格變化比較大的語料上可能效果會出現(xiàn)偏差玷过。個人感覺,利用句子模式訓(xùn)練得到的語言模型來構(gòu)造reward思路值得借鑒筑煮,感興趣的同學(xué)可以留意相關(guān)工作中辛蚊,領(lǐng)域遷移的部分。
文章引用
[1] Franz Josef Och and Hermann Ney. 2003. A systematic comparison of various statistical alignment models. Computational Linguistics, 29(1):19–51.