Inner Attention模型在深度問答系統(tǒng)中的應(yīng)用

Attention機(jī)制在時(shí)序模型中的應(yīng)用疑务,已經(jīng)被證明能夠提升模型的性能。本文參考《Inner Attention based Recurrent Neural Networks for Answer Selection》,該論文以時(shí)序模型輸出狀態(tài)設(shè)計(jì)Attention為基線(QA_LSTM_ATTENTION),提出了三種不同的內(nèi)部Attention設(shè)計(jì)方案和一種優(yōu)化方案。本文實(shí)現(xiàn)了論文中的兩種方案即IARNN-WORD和IARNN-GATE胳徽。

傳統(tǒng)的Attention機(jī)制被應(yīng)用于特征抽取器之后,例如QA_LSTM_ATTENTION爽彤。由于RNN算法用于處理時(shí)序特征的特點(diǎn)养盗,隱含狀態(tài)迭代更新,因此t時(shí)刻的狀態(tài)包含了從開始到t時(shí)刻的所有信息淫茵。當(dāng)我們加入問題的attention信息用于找出最有用的信息的時(shí)候爪瓜,往往靠近時(shí)序末端的特征因?yàn)榘酥暗乃行畔⒍菀妆惶暨x出來。綜上所述匙瘪,傳統(tǒng)的attention機(jī)制更加偏向于后面的狀態(tài)特征铆铆。

為了處理上述的偏差問題,作者考慮將attention加在特征抽取之前丹喻,即輸入層薄货。文章設(shè)計(jì)了四種不同的方案,本文挑選了其中的IARNN-WORD和IARNN-GAGE算法碍论。

圖1:IARNN-WORD算法Attention使用公式

其中IARNN-WORD算法結(jié)構(gòu)圖如下:

圖2:IARNN-WORD模型

IARNN-WORD算法的改變主要來自于將attention的計(jì)算放在了答案特征抽取之前谅猾,避免出現(xiàn)傳統(tǒng)attention算法計(jì)算t時(shí)刻權(quán)值時(shí),包含了之前時(shí)刻的特征信息鳍悠。算法最后對每個時(shí)刻的特征輸出求取平均來作為最后的特征(綜合考慮多個時(shí)刻的特征税娜,避免出現(xiàn)特征信息丟失,但是容易引入噪聲覆蓋信號特征)藏研,這里實(shí)現(xiàn)采用的是max-pooling敬矩,即將attention權(quán)值加在每個時(shí)刻的特征輸出(只拿主要信息,丟掉了其他的低頻特征和噪聲)蠢挡。

IARNN-WORD算法的實(shí)現(xiàn)較為直觀和簡單弧岳,文章還設(shè)計(jì)了另一種attention機(jī)制方法,即將attention的計(jì)算放在了GRU模塊的內(nèi)部(GRU算法的介紹參照這里)业踏,GRU模塊主要由兩個門函數(shù)控制信息的傳輸禽炬,文章通過將attention機(jī)制加入門函數(shù)中來影響時(shí)序信息的傳輸。其計(jì)算公式如下:

圖3:IARNN-GATE算法Attention計(jì)算公式

IARNN-GATE算法結(jié)構(gòu)如下:

圖4:IARNN-GATE模型

IARNN-WORD算法實(shí)驗(yàn)步驟

1:本次實(shí)驗(yàn)采用insuranceQA數(shù)據(jù)勤家,你可以在這里獲得腹尖。實(shí)驗(yàn)之前首先對問題和答案按字切詞,然后采用word2vec對問題和答案進(jìn)行預(yù)訓(xùn)練(這里采用按字切詞的方式避免的切詞的麻煩伐脖,并且同樣能獲得較高的準(zhǔn)確率)桐臊。

2:由于本次實(shí)驗(yàn)采用固定長度的LSTM,因此需要對問題和答案進(jìn)行截?cái)啵ㄟ^長)或補(bǔ)充(過短)晓殊。

3:實(shí)驗(yàn)建模Input断凶。本次實(shí)驗(yàn)采用問答三元組的形式進(jìn)行建模(q,a+巫俺,a-)认烁,q代表問題,a+代表正向答案介汹,a-代表負(fù)向答案却嗡。insuranceQA里的訓(xùn)練數(shù)據(jù)已經(jīng)包含了問題和正向答案,因此需要對負(fù)向答案進(jìn)行選擇嘹承,實(shí)驗(yàn)時(shí)我們采用隨機(jī)的方式對負(fù)向答案進(jìn)行選擇窗价,組合成(q,a+叹卷,a-)的形式撼港。

4:將問題和答案進(jìn)行Embedding(batch_size, sequence_len, embedding_size)表示坪它。

5:對問題采用LSTM模型計(jì)算特征r_q(sequence_len, batch_size, rnn_size),對時(shí)序的LSTM特征進(jìn)行選擇帝牡,這里采用max-pooling往毡。

6:采用問題的特征r_q和答案的輸入根據(jù)圖1的attention計(jì)算方式,計(jì)算經(jīng)過attention加權(quán)之后的輸入靶溜。

7:采用LSTM模型計(jì)算答案的特征开瞭,文章中對LSTM模型計(jì)算的特征采用average的方式獲得最后的特征,這里采用max-pooling罩息。

8:根據(jù)問題和答案最終計(jì)算的特征嗤详,計(jì)算目標(biāo)函數(shù)(cosine_similary)。

目標(biāo)函數(shù)

IARNN-GATE算法實(shí)驗(yàn)步驟

1:本次實(shí)驗(yàn)采用insuranceQA數(shù)據(jù)瓷炮,你可以在這里獲得葱色。實(shí)驗(yàn)之前首先對問題和答案按字切詞,然后采用word2vec對問題和答案進(jìn)行預(yù)訓(xùn)練(這里采用按字切詞的方式避免的切詞的麻煩崭别,并且同樣能獲得較高的準(zhǔn)確率)冬筒。

2:由于本次實(shí)驗(yàn)采用固定長度的GRU,因此需要對問題和答案進(jìn)行截?cái)啵ㄟ^長)或補(bǔ)充(過短)茅主。

3:實(shí)驗(yàn)建模Input舞痰。本次實(shí)驗(yàn)采用問答三元組的形式進(jìn)行建模(q,a+诀姚,a-)响牛,q代表問題,a+代表正向答案赫段,a-代表負(fù)向答案呀打。insuranceQA里的訓(xùn)練數(shù)據(jù)已經(jīng)包含了問題和正向答案,因此需要對負(fù)向答案進(jìn)行選擇糯笙,實(shí)驗(yàn)時(shí)我們采用隨機(jī)的方式對負(fù)向答案進(jìn)行選擇贬丛,組合成(q,a+给涕,a-)的形式豺憔。

4:將問題和答案進(jìn)行Embedding(batch_size, sequence_len, embedding_size)表示。

5:根據(jù)通用的GRU模型計(jì)算問題的特征r_q够庙。

6:根據(jù)圖3公式對GRU模型結(jié)構(gòu)進(jìn)行改造恭应。

7:采用問題的特征r_q和答案的輸入根據(jù)圖4的計(jì)算方式,獲得經(jīng)過attention加權(quán)的GRU特征耘眨,文章中對模型計(jì)算的特征采用average的方式獲得最后的特征昼榛,這里采用max-pooling。

8:根據(jù)問題和答案最終計(jì)算的特征剔难,計(jì)算目標(biāo)函數(shù)(cosine_similry)胆屿。

目標(biāo)函數(shù)

參數(shù)設(shè)置:

??? IARNN-WORD算法參數(shù)設(shè)置:

??????? 1:奥喻、這里優(yōu)化函數(shù)采用論文中使用的SGD(采用adam優(yōu)化函數(shù)時(shí)效果會差大概1個點(diǎn))。

??????? 2莺掠、學(xué)習(xí)速率為0.1衫嵌。

??????? 3:读宙、訓(xùn)練150輪彻秆,大概需要7個小時(shí)的時(shí)間。

??????? 4结闸、margin這里采用0.2唇兑,其它參數(shù)也試過0.15、0.1效果一般桦锄。

??????? 5扎附、這里訓(xùn)練沒有采用dropout和l2約束,之前試過dropout和l2對實(shí)驗(yàn)效果沒有提升结耀,這里就沒有采用了留夜。

??????? 6、batch_size為20图甜。

??????? 7碍粥、這里問題和答案長度都采用100字。

? ? ? ? 8黑毅、rnn_size為300(繼續(xù)調(diào)大沒有明顯的效果提升嚼摩,而且導(dǎo)致訓(xùn)練速度減慢)

? ? ? ? 9、字預(yù)訓(xùn)練采用100維矿瘦。

??? IARNN-GATE算法參數(shù)設(shè)置:

??????? 1:枕面、這里優(yōu)化函數(shù)采用論文中使用的SGD(采用adam優(yōu)化函數(shù)時(shí)效果會差大概1個點(diǎn))。

??????? 2缚去、學(xué)習(xí)速率為0.1潮秘。

??????? 3:、訓(xùn)練150輪易结。

??????? 4枕荞、margin這里采用0.2,其它參數(shù)也試過0.15衬衬、0.1效果一般买猖。

??????? 5、這里訓(xùn)練沒有采用dropout和l2約束滋尉,之前試過dropout和l2對實(shí)驗(yàn)效果沒有提升玉控,這里就沒有采用了。

??????? 6狮惜、batch_size為32

??????? 7:這里問題長度保持30字高诺、答案100字碌识。

??????? 8、rnn_size為200(繼續(xù)調(diào)大沒有明顯的效果提升虱而,而且導(dǎo)致訓(xùn)練速度減慢)

??????? 9筏餐、字預(yù)訓(xùn)練采用100維。

實(shí)驗(yàn)結(jié)果對比:

IARNN-WORD?:0.6911

IARNN-GATE?:0.6916

如果有任何問題歡迎發(fā)送郵件到lirainbow0@163.com牡拇。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末魁瞪,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子惠呼,更是在濱河造成了極大的恐慌导俘,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,591評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件剔蹋,死亡現(xiàn)場離奇詭異旅薄,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)泣崩,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,448評論 3 392
  • 文/潘曉璐 我一進(jìn)店門少梁,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人矫付,你說我怎么就攤上這事凯沪。” “怎么了技即?”我有些...
    開封第一講書人閱讀 162,823評論 0 353
  • 文/不壞的土叔 我叫張陵著洼,是天一觀的道長。 經(jīng)常有香客問我而叼,道長身笤,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,204評論 1 292
  • 正文 為了忘掉前任葵陵,我火速辦了婚禮液荸,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘脱篙。我一直安慰自己娇钱,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,228評論 6 388
  • 文/花漫 我一把揭開白布绊困。 她就那樣靜靜地躺著文搂,像睡著了一般。 火紅的嫁衣襯著肌膚如雪秤朗。 梳的紋絲不亂的頭發(fā)上煤蹭,一...
    開封第一講書人閱讀 51,190評論 1 299
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼硝皂。 笑死常挚,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的稽物。 我是一名探鬼主播奄毡,決...
    沈念sama閱讀 40,078評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼贝或!你這毒婦竟也來了吼过?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 38,923評論 0 274
  • 序言:老撾萬榮一對情侶失蹤傀缩,失蹤者是張志新(化名)和其女友劉穎那先,沒想到半個月后农猬,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體赡艰,經(jīng)...
    沈念sama閱讀 45,334評論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,550評論 2 333
  • 正文 我和宋清朗相戀三年斤葱,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了慷垮。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,727評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡揍堕,死狀恐怖料身,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情衩茸,我是刑警寧澤芹血,帶...
    沈念sama閱讀 35,428評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站楞慈,受9級特大地震影響幔烛,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜囊蓝,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,022評論 3 326
  • 文/蒙蒙 一饿悬、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧聚霜,春花似錦狡恬、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,672評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至姥芥,卻和暖如春兔乞,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,826評論 1 269
  • 我被黑心中介騙來泰國打工报嵌, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留虱咧,地道東北人。 一個月前我還...
    沈念sama閱讀 47,734評論 2 368
  • 正文 我出身青樓锚国,卻偏偏與公主長得像腕巡,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子血筑,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,619評論 2 354

推薦閱讀更多精彩內(nèi)容