論文研讀:基于統(tǒng)計重加權(quán)的方法減少通用回復(fù)
會議名稱:EMNLP2018
文章題目:Towards Less Generic Responses in Neural Conversation Models: A Statistical Re-weighting Method
原文鏈接:https://link.zhihu.com/?target=https%3A//www.paperweekly.site/papers/2440
一句話概括: 針對開放對話領(lǐng)域的對話多對多關(guān)系并且產(chǎn)生通用回復(fù)的問題抢蚀,文章在損失項中引入權(quán)重的概念宅粥,降低通用回復(fù)權(quán)重馋吗,降低過短或者過長語句的權(quán)重秀撇。
論文背景
????神經(jīng)生成模型在機器翻譯中的成功應(yīng)用,即神經(jīng)機器翻譯(Neural Machine Translation, NMT)炼蹦,激發(fā)了研究人員對于神經(jīng)對話模型的熱情凹髓。目前最常用的框架為Seq2Seq模型村斟,其通常通過極大似然法鸠删,最大化回復(fù)的概率得到輸出結(jié)果抱完。但在上述任務(wù)中會存在一些問題,其中最嚴(yán)重的的一個是模型經(jīng)常會產(chǎn)生一個通用的回復(fù)(例如刃泡,我不知道)巧娱,而不是一個有意義的特定回答。
????在開放領(lǐng)域的對話中烘贴,我們經(jīng)常發(fā)現(xiàn)對于一個輸入禁添,會得到若干意思不一致,但是同樣可以接受的回答桨踪。如問“你吃飯了嗎”老翘,回復(fù)“還沒”,“不餓”,“剛吃完”酪捡,“不急”等等都可以被接受,因此對于
到
通常是一個一對多甚至多對多的關(guān)系纳账,如下圖所示:
????作者通過這些觀察逛薇,提出了一種統(tǒng)計重加權(quán)的損失函數(shù),減少通用回復(fù)疏虫。
論文方法
????考慮對于語料庫永罚,其對于樣本
,損失函數(shù)為:
????全樣本集的損失函數(shù)為:
????考慮通用回復(fù)出現(xiàn)在很多對應(yīng)的回復(fù)中呢袱,因此,如果我們對于
的兩個回復(fù)中翅敌,如果某個回復(fù)比另一個更加通用羞福,他們會具有相同的損失項(根據(jù)公式1),公式2中會包含大量通用回復(fù)蚯涮,導(dǎo)致模型陷入局部最優(yōu)治专,即模型更加傾向于產(chǎn)生通用回復(fù)。
????基于上述觀察遭顶,但是我們應(yīng)該提高通用回復(fù)的損失张峰,降低不通用回復(fù)的損失。于是提出下面的損失函數(shù):
????在這里棒旗,作為一個權(quán)重喘批,取值范圍為
,對于樣本集
上的Batch铣揉,將其損失函數(shù)歸一化為:
????對于回復(fù)饶深,作者總結(jié)了兩個公共的屬性:
????1. 經(jīng)常出現(xiàn)在訓(xùn)練語料庫中的回復(fù)模式往往是通用的。在這里逛拱,模式指的是整個句子或n-gram粥喜,可以通過回復(fù)之間的相似性來描述。
????2. 特別長或者特別短的回復(fù)都應(yīng)該避免橘券,太長包含太多特定信息额湘,太短通用回復(fù)
????因此作者設(shè)計了權(quán)重:
????其中指:
????為:
????為:
這里是回復(fù)
在所有回復(fù)中的出現(xiàn)頻次,
為所有回復(fù)的平均長度旁舰,
均為超參數(shù)锋华。
實驗結(jié)果
????作者從社交網(wǎng)站爬取了700萬對話作為實驗,用500作為測試箭窜,對句子通順度毯焕,句子相關(guān)性,可接受度等方面進行評測,同時對權(quán)重的多重設(shè)計的有效性進行了評測(只使用頻次RWE纳猫,長度RWF婆咸,都是用RWEF等)結(jié)果如下:
????另外作者利用10萬測試集統(tǒng)計了常用通用回復(fù)的頻次,明顯看到通用回復(fù)變少芜辕。
個人總結(jié)
????個人覺得方法還是很有啟發(fā)性的尚骄,通過改變權(quán)重,樣本原本的分布侵续,以此來達到減少通用回復(fù)的目的倔丈。
????但是模型需要顧慮:權(quán)重改變改變了樣本的分布,這種改變是否合理状蜗?噪聲點是否因此被放大需五?在條件下,人們通用回復(fù)說得多是否代表通用回復(fù)占比本來就高轧坎,這樣改變的對話系統(tǒng)是否不符合對話方式宏邮?(如在原文中,舉例“孟記普洱茶專營店一貼”缸血,通用回復(fù)為“我也想喝”蜀铲,而文章中的模型為“我喜歡喝茶”,是否前者更符合属百,后者更突兀记劝?)
????但是這篇文章依舊非常具有啟發(fā)性,感謝騰訊AILAB族扰,武漢大學(xué)厌丑,蘇州大學(xué)的大牛們。
本文由飛劍客原創(chuàng)渔呵,如需轉(zhuǎn)載怒竿,請聯(lián)系私信聯(lián)系知乎:@AndyChanCD