使聊天機器人的對話更有營養(yǎng)

本文結(jié)構(gòu):

  • 模型效果
  • 模型
  • 模塊細節(jié)

今天的論文是 《Topic Aware Neural Response Generation》

https://arxiv.org/pdf/1606.08340.pdf

這篇論文的目的是讓聊天機器人的回復更有營養(yǎng)凛捏,例如下面這種場景曙砂,要盡量避免‘我也是’‘明白了’‘不知道’這種沒有信息量的回復蛮拔,而是可以給出一些建議和方案等:


模型

思路是輸入句子后隘擎,先預測 topics浅妆,再根據(jù) topics 生成回復丑婿。

文章中通過建立 topic aware sequence-to-sequence (TA-Seq2Seq) 模型來實現(xiàn)這個過程朽们。

TA-Seq2Seq 建立于 sequence-to-sequence 基礎上的烁,再加上一個聯(lián)合注意力機制奶镶。

關(guān)于 seq2seq 的模型細節(jié)可以看這兩篇文章:
seq2seq 入門
seq2seq 的 keras 實現(xiàn)

簡單回顧迟赃,

1. seq2seq

是個 encoder-decoder 結(jié)構(gòu),兩部分都是 RNN 模型厂镇,RNN 可以選擇 LSTM 或者 GRU纤壁;

輸入句子 X = (x1, x2, . . . , xT ) ,
輸出句子 Y = (y1 , y2 , . . . , yT` )

目標是要最大化條件概率:

其中 c 為 encoder 的 RNN 模型得到的 context vector捺信。

2. 注意力機制

簡單講酌媒,就是一般的 seq2seq 中,回復句子的所有單詞都是由同樣的語境生成迄靠,而加入注意力機制后秒咨,回復中的每個單詞是由輸入句子的不同部分生成的。
即 Y 中的每個單詞 yi 由語境向量 ci 影響掌挚,其中 ci 是隱向量的加權(quán)平均:


模塊細節(jié)

接下來根據(jù)前面的 TA-Seq2Seq 模型結(jié)構(gòu)圖看一下細節(jié)雨席。

TA-Seq2Seq 的 encoder 和 decoder:

1. 在 encoding 中

  1. message encoder 通過一個雙向的 GRU 模型吠式,將輸入 X 表示成隱向量 ht陡厘。
  2. 再用提前訓練好的 Twitter LDA 模型獲得 topic words 的向量表示:

Twitter LDA 模型的參數(shù)根據(jù) collapsed Gibbs 采樣算法求得,

Twitter LDA 會給輸入 X 分配主題 z奇徒,選擇概率最高的前 100 個單詞雏亚,并且移除 “謝謝” “你” 等普遍的詞,最終得到 X 的主題詞 K摩钙。

這里 K 的向量表達由每個主題詞 w 的分布計算得到:

其中 Cwz 為 w 被分配到主題 z 的次數(shù)罢低。


2. 在 decoding 中

每個單詞都通過一個聯(lián)合注意力機制,由輸入句子和主題共同影響生成网持,這樣生成的句子不僅和輸入有關(guān)宜岛,而且和相關(guān)主題有關(guān)。

decoding 時功舀,每一步時隱向量 h 被轉(zhuǎn)化為 ci:

主題向量 k 也被線性組合為 oi萍倡,每個 kj 對應的系數(shù)為:

其中 hT 是輸入句子的最終隱藏層狀態(tài),η0 是一個多層感知器辟汰,這么做可以削弱與主題無關(guān)的詞的影響列敲,加強相關(guān)詞的影響度,即 oi 與輸入的內(nèi)容更相關(guān)帖汞,減少了很多噪音戴而。

然后由 ci 和 oi 聯(lián)合影響著生成句子的概率,

即每個單詞的生成概率定義為:

p(yi) = pV (yi) + pK (yi),

其中 V 是回復詞匯表翩蘸,f 是一個 GRU 模型所意, Z 是正規(guī)化因子,并且:

這里的 σ(·) 為 tanh催首,w 為單詞的 one-hot 表達扶踊,其余的 W 和 b 為參數(shù)。

這個生成概率定義的作用是郎任,

對于非主題詞秧耗,pV (yi) 就和 seq2seq + joint attention mechanism 類似,
但對于主題詞涝滴,就有額外的一項 pK(yi) 可以增加主題詞在回復中出現(xiàn)的概率绣版。

這種聯(lián)合影響還有一個好處胶台,

一般的 seq2seq 生成回復中第一個詞只由 c0 決定歼疮,這里是由 c0 和 o0 共同作用,使得回復的第一個詞更加貼切主題诈唬,第一個詞準了對后面生成詞的影響也很重要韩脏。


推薦閱讀 歷史技術(shù)博文鏈接匯總
http://www.reibang.com/p/28f02bb59fe5
也許可以找到你想要的:
[入門問題][TensorFlow][深度學習][強化學習][神經(jīng)網(wǎng)絡][機器學習][自然語言處理][聊天機器人]

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市铸磅,隨后出現(xiàn)的幾起案子赡矢,更是在濱河造成了極大的恐慌,老刑警劉巖阅仔,帶你破解...
    沈念sama閱讀 212,454評論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件吹散,死亡現(xiàn)場離奇詭異,居然都是意外死亡八酒,警方通過查閱死者的電腦和手機空民,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,553評論 3 385
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人界轩,你說我怎么就攤上這事画饥。” “怎么了浊猾?”我有些...
    開封第一講書人閱讀 157,921評論 0 348
  • 文/不壞的土叔 我叫張陵抖甘,是天一觀的道長。 經(jīng)常有香客問我葫慎,道長衔彻,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,648評論 1 284
  • 正文 為了忘掉前任偷办,我火速辦了婚禮米奸,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘爽篷。我一直安慰自己悴晰,他們只是感情好,可當我...
    茶點故事閱讀 65,770評論 6 386
  • 文/花漫 我一把揭開白布逐工。 她就那樣靜靜地躺著铡溪,像睡著了一般。 火紅的嫁衣襯著肌膚如雪泪喊。 梳的紋絲不亂的頭發(fā)上棕硫,一...
    開封第一講書人閱讀 49,950評論 1 291
  • 那天,我揣著相機與錄音袒啼,去河邊找鬼哈扮。 笑死,一個胖子當著我的面吹牛蚓再,可吹牛的內(nèi)容都是我干的滑肉。 我是一名探鬼主播,決...
    沈念sama閱讀 39,090評論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼摘仅,長吁一口氣:“原來是場噩夢啊……” “哼靶庙!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起娃属,我...
    開封第一講書人閱讀 37,817評論 0 268
  • 序言:老撾萬榮一對情侶失蹤六荒,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后矾端,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體掏击,經(jīng)...
    沈念sama閱讀 44,275評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,592評論 2 327
  • 正文 我和宋清朗相戀三年秩铆,在試婚紗的時候發(fā)現(xiàn)自己被綠了砚亭。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,724評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖钠惩,靈堂內(nèi)的尸體忽然破棺而出柒凉,到底是詐尸還是另有隱情,我是刑警寧澤篓跛,帶...
    沈念sama閱讀 34,409評論 4 333
  • 正文 年R本政府宣布膝捞,位于F島的核電站,受9級特大地震影響愧沟,放射性物質(zhì)發(fā)生泄漏蔬咬。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 40,052評論 3 316
  • 文/蒙蒙 一沐寺、第九天 我趴在偏房一處隱蔽的房頂上張望林艘。 院中可真熱鬧,春花似錦混坞、人聲如沸狐援。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,815評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽啥酱。三九已至,卻和暖如春厨诸,著一層夾襖步出監(jiān)牢的瞬間镶殷,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,043評論 1 266
  • 我被黑心中介騙來泰國打工微酬, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留绘趋,地道東北人。 一個月前我還...
    沈念sama閱讀 46,503評論 2 361
  • 正文 我出身青樓颗管,卻偏偏與公主長得像陷遮,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子忙上,可洞房花燭夜當晚...
    茶點故事閱讀 43,627評論 2 350

推薦閱讀更多精彩內(nèi)容

  • 前面的文章主要從理論的角度介紹了自然語言人機對話系統(tǒng)所可能涉及到的多個領域的經(jīng)典模型和基礎知識拷呆。這篇文章闲坎,甚至之后...
    我偏笑_NSNirvana閱讀 13,887評論 2 64
  • 京東數(shù)據(jù)團隊曾經(jīng)出了一片關(guān)于對話系統(tǒng)的論文《A Survey on Dialogue Systems:Recent...
    奇點機智閱讀 5,777評論 0 11
  • 近日疫粥,谷歌官方在 Github開放了一份神經(jīng)機器翻譯教程,該教程從基本概念實現(xiàn)開始腰懂,首先搭建了一個簡單的NMT模型...
    MiracleJQ閱讀 6,353評論 1 11
  • 老街SKY:這就是那種最干凈的成功2016-02-22 新世相 這篇報道講的中國某一代年輕人眼里最風光的人物梗逮,魔獸...
    程本超閱讀 530評論 0 1
  • 時間限制 1000 ms內(nèi)存限制 64 MB題目描述有一條河,河中間有一些石頭绣溜,已知石頭的數(shù)量和相鄰兩塊石頭之間的...
    續(xù)袁閱讀 2,103評論 0 0