來源: AINLPer 微信公眾號(每日更新...)
編輯: ShuYini
校稿: ShuYini
時(shí)間: 2020-03-02
引言:下面是作者整理的關(guān)于Question Answering(QA)相關(guān)的論文文章狭莱,下面這10篇文章都頂會ICLR發(fā)表的文章找都,能找到源碼的作者也直接貼出來了羞迷,如果你對Question Answering(QA)感興趣或者也在找一些相關(guān)的文章,希望能夠幫助你~~
TILE: Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model
Author: Wenhan Xiong, Jingfei Du, William Yang Wang, Veselin Stoyanov
Paper:https://openreview.net/pdf?id=BJlzm64tDH
Code: None
論文簡述:提出了一個(gè)簡單而有效的弱監(jiān)督預(yù)訓(xùn)練方法辐烂,該方法明確地迫使模型包含關(guān)于真實(shí)世界實(shí)體的知識淮椰。用我們的新方法訓(xùn)練的模型在實(shí)際任務(wù)上產(chǎn)生了顯著的改進(jìn)横缔。
TILE: Differentiable Reasoning over a Virtual Knowledge Base
Author: Bhuwan Dhingra, Manzil Zaheer, Vidhisha Balachandran, Graham Neubig, Ruslan Salakhutdinov, William W. Cohen
Paper:https://openreview.net/pdf?id=SJxstlHFPH
Code: http://www.cs.cmu.edu/~bdhingra/pages/drkit.html
論文簡述:本文使用一個(gè)語料庫作為虛擬知識庫來回答復(fù)雜的多跳轉(zhuǎn)問題。本文主要描述了一個(gè)神經(jīng)模塊DrKIT轴咱,它像KB一樣遍歷文本數(shù)據(jù)汛蝙,并遵循在語料庫中提到的實(shí)體之間的關(guān)系路徑。
TILE: Generative Question Answering: Learning to Answer the Whole Question
Author: Mike Lewis, Angela Fan
Paper:https://openreview.net/pdf?id=Bkx0RjA9tX
Code: None
論文簡述: 本文介紹了問題和答案的聯(lián)合分布的生成模型朴肺,這些模型被訓(xùn)練來解釋整個(gè)問題窖剑,而不僅僅是回答它。我們的問題回答(QA)模型是通過學(xué)習(xí)先驗(yàn)而不是答案來實(shí)現(xiàn)的戈稿,并且通過條件語言模型生成給定答案的問題——允許在逐字生成問題時(shí)進(jìn)行可伸縮和可解釋的多跳推理西土。
TILE: FlowQA: Grasping Flow in History for Conversational Machine Comprehension
Author: Hsin-Yuan Huang, Eunsol Choi, Wen-tau Yih.
Paper:https://openreview.net/pdf?id=ByftGnR9KX
Code: None
論文簡述:會話機(jī)器理解需要對會話歷史有深刻的理解。為了使傳統(tǒng)的單輪模型能夠全面地對歷史進(jìn)行編碼鞍盗,本文引入了Flow機(jī)制需了,通過交替的并行處理結(jié)構(gòu),可以將在回答前面問題的過程中生成的中間表示然后合并到一起般甲。與將之前的問題/答案作為輸入串聯(lián)起來的淺層方法相比肋乍,F(xiàn)low更深入地集成了會話歷史的潛在語義。
TILE: Coarse-grain Fine-grain Coattention Network for Multi-evidence Question Answering
Author:Victor Zhong, Caiming Xiong, Nitish Shirish Keskar, Richard Socher
Paper: https://openreview.net/pdf?id=Syl7OsRqY7
Code: None
論文簡述: 端到端神經(jīng)模型在回答問題方面取得了重大進(jìn)展敷存,但最近的研究表明墓造,這些模型隱含地假設(shè)答案和證據(jù)在一個(gè)文檔中緊密地出現(xiàn)。在這項(xiàng)工作中锚烦,我們提出了粗粒度細(xì)粒度協(xié)同注意網(wǎng)絡(luò)(CFC)觅闽,這是一種新的問題回答模型,它結(jié)合了來自多個(gè)文檔的證據(jù)信息涮俄。
TILE: Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent
Author:Zhilin Yang, Saizheng Zhang, Jack Urbanek, Will Feng, Alexander Miller, Arthur Szlam, Douwe Kiela, Jason Weston.
Paper:https://openreview.net/pdf?id=SJ-C6JbRW
Code: None
論文簡述: 人類是在環(huán)境中交互式地學(xué)習(xí)語言的蛉拙。本文提出了一個(gè)交互式學(xué)習(xí)過程,稱為Mechanical Turker Descent (MTD)彻亲,訓(xùn)練代理人執(zhí)行自然語言命令植根于幻想文本冒險(xiǎn)游戲孕锄。
TILE: DCN+: Mixed Objective And Deep Residual Coattention for Question Answering.
Author:Caiming Xiong, Victor Zhong, Richard Socher.
Paper:https://openreview.net/pdf?id=H1meywxRW
Code: None
論文簡述: 傳統(tǒng)的問答模型使用交叉熵?fù)p失進(jìn)行優(yōu)化,這種方法尋求精確的答案苞尝,但代價(jià)是懲罰有時(shí)同樣精確的鄰近答案畸肆。為此本文提出了一種交叉熵?fù)p失與自懲罰策略學(xué)習(xí)相結(jié)合的混合解決方法,利用詞重疊產(chǎn)生的激勵來解決評價(jià)指標(biāo)與優(yōu)化目標(biāo)之間的偏差野来。
TILE: FusionNet: Fusing via Fully-aware Attention with Application to Machine Comprehension.
Author:Hsin-Yuan Huang, Chenguang Zhu, Yelong Shen, Weizhu Chen.
Paper:https://openreview.net/pdf?id=BJIgi_eCZ
Code: None
論文簡述: 本文介紹了一種新的神經(jīng)結(jié)構(gòu)FusionNet恼除,它從三個(gè)方面擴(kuò)展了現(xiàn)有的自注意力方法。首先,提出了一個(gè)新的“詞史”概念豁辉,將注意力信息從最低的詞級嵌入到最高的語義級表征中令野。其次,它確定了一個(gè)自注意力評分函數(shù)徽级,該函數(shù)更好地利用了“詞史”概念气破。第三,提出了一種全意識的多層次注意力機(jī)制餐抢,可以在一個(gè)文本(如一個(gè)問題)中捕獲完整的信息现使,并在其對應(yīng)的文本(如上下文或文章)中逐層加以利用。
TILE: Ask the Right Questions: Active Question Reformulation with Reinforcement Learning
Author: Christian Buck, Jannis Bulian, Massimiliano Ciaramita, Wojciech Gajewski, Andrea Gesmundo, Neil Houlsby, Wei Wang.
Paper:https://openreview.net/pdf?id=S1CChZ-CZ
Code: None
論文簡述: 本文將問答(QA)作為一種強(qiáng)化學(xué)習(xí)任務(wù)旷痕,稱之為主動問答碳锈。這里提出一個(gè)介于用戶和黑箱QA系統(tǒng)之間的代理,并學(xué)會重新組織問題以獲得最佳答案欺抗。代理通過對最初問題的自然語言重新表達(dá)來探測系統(tǒng)售碳,并收集返回的證據(jù)來獲得最佳答案。
TILE: Query-Reduction Networks for Question Answering.
Author:Minjoon Seo, Sewon Min, Ali Farhadi, Hannaneh Hajishirzi.
Paper: https://arxiv.org/pdf/1606.04582.pdf
Code: None
論文簡述:本文介紹了一組可微圖轉(zhuǎn)換绞呈,并使用它們來構(gòu)建一個(gè)具有圖內(nèi)部狀態(tài)的模型贸人,該模型可以從文本中提取結(jié)構(gòu)化數(shù)據(jù)并可以使用它來回答查詢。
Attention
更多自然語言處理相關(guān)知識佃声,還請關(guān)注AINLPer公眾號艺智,極品干貨即刻送達(dá)。