SMN論文閱讀

注:論文的一些比較經(jīng)典的描述盡量用原文汗茄,并且主要關(guān)注模型的特點(diǎn)和具體的結(jié)構(gòu),論文關(guān)于相關(guān)工作以及效果就不贅述了四康。

SMN的一些特點(diǎn):


image.png

SMN 首先在不同的粒度上把一個(gè)response 和每個(gè)上下文語(yǔ)句進(jìn)行匹配。(1對(duì)N)產(chǎn)生N個(gè)匹配對(duì)狭握。
然后從以上的每個(gè)匹配對(duì)的word中以及Segment中挖掘重要的匹配信息闪金,然后經(jīng)過(guò)卷積和池操作(CNN)變成一個(gè)向量。(N對(duì)產(chǎn)生N個(gè)向量)
然后這N個(gè)向量會(huì)通過(guò)GRU,按照一個(gè)時(shí)間序列來(lái)累積成一個(gè)最終向量哎垦。
之后設(shè)計(jì)好L函數(shù)在最后利用最終向量可以計(jì)算出一個(gè)匹配積分囱嫩。

解決多輪和單輪的不同的地方:
在于上下文也要和response進(jìn)行匹配。
1:如何從上下文中分辨出重要的信息漏设。(關(guān)鍵信息)
2:如何對(duì)上下文語(yǔ)句的關(guān)系進(jìn)行建模墨闲。(信息順序)

那么看看SMN是如何實(shí)現(xiàn): 關(guān)鍵信息 信息順序 不同粒度挖掘上下文每局話(huà)以及response。

對(duì)于每個(gè)上下文中的每句話(huà) 以及 response郑口,模型都通過(guò) word embedding 和 GRU的隱藏層輸出的隱含狀態(tài) 分別建立了一個(gè) word - word 相似度 矩陣鸳碧,以及一個(gè) sequence - sequence 相似度矩陣。
對(duì)于這兩個(gè)矩陣就可以從word level 以及 sequence level捕捉到重要的匹配信息犬性。
并且這個(gè)信息會(huì)通過(guò)卷積和池操作被挖掘以及融合成一個(gè)matching vector瞻离。
通過(guò)這種方法,來(lái)自不同粒度的上下文信息就會(huì)被識(shí)別出來(lái)乒裆。并且相似度高的特征會(huì)被CNN挖掘出來(lái)套利,從而實(shí)現(xiàn)了 關(guān)鍵信息。
然后這些matching vector會(huì)被按照順序(講話(huà)的順序從上到下)傳入GRU來(lái)形成一個(gè)最終向量鹤耍。
這就模擬了語(yǔ)句之間的聯(lián)系關(guān)系和獨(dú)立關(guān)系肉迫,也就是實(shí)現(xiàn)了 信息順序。

SMN 相當(dāng)于擴(kuò)展了MM(Match Matrix)稿黄。在多輪中使用 2D matching paradigm喊衫。

SMN的優(yōu)點(diǎn):
1:在從一開(kāi)始,一個(gè)response匹配多個(gè)上下文語(yǔ)句抛猖,因此每個(gè)語(yǔ)句的匹配信息都能夠被充分挖掘格侯,并且最后應(yīng)用到最后的積分的時(shí)候引入的loss比較小。
2:從每個(gè)上下文語(yǔ)句中提取的信息是來(lái)自于不同的粒度的财著,并且是under sufficient supervision form the response联四。所以每個(gè)話(huà)之間的,并且對(duì)response selection有用的語(yǔ)義結(jié)構(gòu)都能夠被充分挖掘出來(lái)撑教。
3:匹配和語(yǔ)句關(guān)系是連著的朝墩,不是相互獨(dú)立建模,因?yàn)檎Z(yǔ)句之間的關(guān)系(比如語(yǔ)句的順序)會(huì)被計(jì)算進(jìn)去伟姐。(最后那個(gè)GRU)

具體每個(gè)層在做的事情:
1:Utterance-Response Matching收苏。
首先:

word bedding -> M_1
GRU -> M_2

然后可以構(gòu)造word-word similarity matrix M_1 以及 sequence-sequence similarity matrix M_2

其中:
U =[e_{u,1},...,e_{u,n_u}]
R =[e_{r,1},..,e_{r,n_r}]
其中e是每個(gè)word的word embedding愤兵。
M_1 是 詞之間的 比如可以有 m_{i,j} = e^T_{u,i} * e_{r,j}
M_2 是 句之間的 這個(gè)就比如用GRU 把 U和R轉(zhuǎn)化成兩個(gè)vector鹿霸。(拿出隱層的輸出隱藏狀態(tài))
而這兩個(gè)vector可以理解成語(yǔ)句的vector。
對(duì)于隱藏層輸出為H_U = [h_{u,1},...,h_{u,n_u}] , H_R = [h_{r,1},...,h_{r,n_r}]
對(duì)于M_2m_{i,j} = h^T_{u,i}Ah_{r,j}.
A是一個(gè)m*m的矩陣秆乳,在這里做一個(gè)線(xiàn)性變換用的懦鼠。
注意:M_1和M_2就一個(gè)钻哩。M_1上面的一個(gè)元素都是一個(gè)值,這個(gè)值用對(duì)應(yīng)的兩個(gè)word embedding計(jì)算出來(lái)肛冶。(比如上面用dot product)
M_2 上面的一個(gè)元素也是一個(gè)值街氢,這個(gè)值用H_U和H_R對(duì)應(yīng)的兩個(gè)向量(h向量)計(jì)算出來(lái)的。

然后:
這兩個(gè)矩陣可以作為CNN的兩個(gè)輸入端睦袖,然后CNN 會(huì)挖掘特征以及把重要的信息轉(zhuǎn)化成一個(gè)matching vector v珊肃。

CNN 會(huì)做alternates convoution 以及 max-pooling 操作。
通過(guò)CNN的特點(diǎn)(略)馅笙,可以了解到以下事實(shí):
對(duì)于識(shí)別出合適的回答是有效果的上下文語(yǔ)句中的單詞之間或者段落之間是會(huì)有比較大的相似度的伦乔。并且這樣在相似矩陣?yán)锩娴闹狄矔?huì)比較大。
所以CNN 會(huì)選擇這些比較大的相似特征的地方并且提出一個(gè)matching vecotr延蟹。
這就是為什么SMN 能夠識(shí)別重要的信息评矩。并且是基于我們的response的。
(important information in context and leverage it in matching under the supervision of the response)阱飘。

之所以考慮multiple channels 是因?yàn)橄胍獜亩鄠€(gè)粒度去捕捉重要的信息斥杜。

2: Matching Accumulation。
我們假設(shè)[v_1,...,v_n]是上面那層的輸出.matching vector沥匈。
然后輸入進(jìn)GRU蔗喂。用GRU的隱含狀態(tài)來(lái)表示。
(encodes the matching sequence into its hidden states)
H_m = [h'_1,...,h'_n]高帖。
這個(gè)層的作用有兩個(gè):
1:模擬句子的上下順序缰儿。
2:可以清理一些CNN引入的噪音。(要細(xì)看)reset gate 和 update gate可以控制信息散址。

3:Matching Prediction and Learning乖阵。
對(duì)于輸入到這層的H_m = [h'_1,...,h'_n],我們可以有预麸。
g(s,r) = softmax( W_2L[h'_1,...,h'_n]+b_2)瞪浸。
對(duì)于L(H_m) 有三種函數(shù)表示:
1)L( [ h'_1,...,h'_n ] ) = h'_n
2)L( [ h'_1,...,h'_n ] ) = \sum^n_{i=1} w_ih'_i
3)attention mechanism
訓(xùn)練損失函數(shù)。
- \sum^N_{i=1} y log( p ) + (1-y) log( 1- p )

最后:
Response Candidate Retrieval吏祸。
實(shí)際中对蒲,做一個(gè) 基于索引的chatbot。需要檢索一定數(shù)量的response candidates from a index beforehand贡翘。但是candidate retrieval 并不是本文的重點(diǎn)蹈矮。但是在現(xiàn)實(shí)的系統(tǒng)中是十分重要的。
可以使用5 keywords based on ti-idf scores鸣驱。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末泛鸟,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子踊东,更是在濱河造成了極大的恐慌北滥,老刑警劉巖勺美,帶你破解...
    沈念sama閱讀 212,383評(píng)論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異碑韵,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)缎脾,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,522評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門(mén)祝闻,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人遗菠,你說(shuō)我怎么就攤上這事联喘。” “怎么了辙纬?”我有些...
    開(kāi)封第一講書(shū)人閱讀 157,852評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵豁遭,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我贺拣,道長(zhǎng)蓖谢,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 56,621評(píng)論 1 284
  • 正文 為了忘掉前任譬涡,我火速辦了婚禮闪幽,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘涡匀。我一直安慰自己盯腌,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,741評(píng)論 6 386
  • 文/花漫 我一把揭開(kāi)白布陨瘩。 她就那樣靜靜地躺著腕够,像睡著了一般。 火紅的嫁衣襯著肌膚如雪舌劳。 梳的紋絲不亂的頭發(fā)上帚湘,一...
    開(kāi)封第一講書(shū)人閱讀 49,929評(píng)論 1 290
  • 那天,我揣著相機(jī)與錄音蒿囤,去河邊找鬼客们。 笑死,一個(gè)胖子當(dāng)著我的面吹牛材诽,可吹牛的內(nèi)容都是我干的底挫。 我是一名探鬼主播,決...
    沈念sama閱讀 39,076評(píng)論 3 410
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼脸侥,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼建邓!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起睁枕,我...
    開(kāi)封第一講書(shū)人閱讀 37,803評(píng)論 0 268
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤官边,失蹤者是張志新(化名)和其女友劉穎沸手,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體注簿,經(jīng)...
    沈念sama閱讀 44,265評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡契吉,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,582評(píng)論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了诡渴。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片捐晶。...
    茶點(diǎn)故事閱讀 38,716評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖妄辩,靈堂內(nèi)的尸體忽然破棺而出惑灵,到底是詐尸還是另有隱情,我是刑警寧澤眼耀,帶...
    沈念sama閱讀 34,395評(píng)論 4 333
  • 正文 年R本政府宣布英支,位于F島的核電站,受9級(jí)特大地震影響哮伟,放射性物質(zhì)發(fā)生泄漏干花。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 40,039評(píng)論 3 316
  • 文/蒙蒙 一楞黄、第九天 我趴在偏房一處隱蔽的房頂上張望把敢。 院中可真熱鬧,春花似錦谅辣、人聲如沸修赞。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,798評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)柏副。三九已至,卻和暖如春蚣录,著一層夾襖步出監(jiān)牢的瞬間割择,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,027評(píng)論 1 266
  • 我被黑心中介騙來(lái)泰國(guó)打工萎河, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留荔泳,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,488評(píng)論 2 361
  • 正文 我出身青樓虐杯,卻偏偏與公主長(zhǎng)得像玛歌,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子擎椰,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,612評(píng)論 2 350

推薦閱讀更多精彩內(nèi)容

  • 主要內(nèi)容 自然語(yǔ)言輸入編碼 前饋網(wǎng)絡(luò) 卷積網(wǎng)絡(luò) 循環(huán)網(wǎng)絡(luò)(recurrent networks ) 遞歸網(wǎng)絡(luò)(re...
    JackHorse閱讀 4,114評(píng)論 0 2
  • 由于簡(jiǎn)書(shū)對(duì)latex公式支持不太友好支子,因此為了更好的閱讀體驗(yàn),你可以移步至: 【TPAMI重磅綜述】 SIFT與C...
    keloli閱讀 6,176評(píng)論 0 18
  • Spring Cloud為開(kāi)發(fā)人員提供了快速構(gòu)建分布式系統(tǒng)中一些常見(jiàn)模式的工具(例如配置管理达舒,服務(wù)發(fā)現(xiàn)值朋,斷路器叹侄,智...
    卡卡羅2017閱讀 134,637評(píng)論 18 139
  • 這是一則隨心到信馬由韁的動(dòng)態(tài)。 我喜歡有事沒(méi)事追憶過(guò)往昨登≈捍或是翻翻照片、或是從頭到尾看一遍寫(xiě)過(guò)的文字丰辣、或是聽(tīng)聽(tīng)那些年...
    婠執(zhí)閱讀 456評(píng)論 1 8
  • 溫江跑團(tuán)加入很久了稽坤,只一起跑步過(guò)一次,因?yàn)槟切┤硕硷w太快了糯俗,跟不上,所以后面也沒(méi)有去了睦擂,今晚參加了溫江夜徒活動(dòng)得湘,還...
    Jane小白917閱讀 174評(píng)論 0 0