整理:公眾號【PaperWeekly】
?
#語義分割#
ICNet for Real-Time Semantic Segmentation?on High-Resolution Images
本文提出了一個實時性的語義分割網(wǎng)絡(luò),Image Cascade Network(ICNet)摄悯,在兼顧實時性的同時比原來的 Fast Semantic Segmentation赞季,比如 SQ,SegNet奢驯,ENet 等大大地提高了準確率申钩,足以與 Deeplab v2 媲美,給語義分割的實用提供了可能瘪阁。
文中經(jīng)過分析撒遣,影響速度最大的因素是圖片分辨率,進而總結(jié)提高速度的方法有管跺,對輸入降采樣义黎,對特征降采樣,或者進行模型壓縮豁跑。在這基礎(chǔ)上廉涕,本文提出的模型利用了低分辨率圖片的高效處理和高分辨率圖片的高推斷質(zhì)量兩種優(yōu)點。主要思想是:讓低分辨率圖像經(jīng)過整個語義網(wǎng)絡(luò)輸出一個粗糙的預(yù)測艇拍,然后利用文中提出的 cascade fusion unit 來引入中分辨率和高分辨率圖像的特征火的,從而逐漸提高精度。本文還對網(wǎng)絡(luò)進行了模型壓縮淑倾,再次提速馏鹤。最終,該模型能達到實時進行語義分割處理娇哆,同時有較高準確率湃累。
論文鏈接:https://arxiv.org/abs/1704.08545
知乎專欄簡評:
https://zhuanlan.zhihu.com/p/26653218?refer=semantic-segmentation
推薦人:余昌黔勃救,華中科技大學(xué)(PaperWeekly arXiv組志愿者)
?
#對話系統(tǒng)#
#上下文#
Not All Dialogues are Created Equal: Instance Weighting for Neural Conversational Models
不論是基于檢索來找 response 還是基于生成來出 response,都需要考慮對話的 context治力,簡單的蒙秒、沒有取舍地將 context 作為 condition 來產(chǎn)生 response 都存在一定的問題。本文提出了一種 weighting model 加入到對話生成模型中宵统,對 context 進行了重要性區(qū)分晕讲,從而檢索出/生成更加合理的 response。建議各位做 chatbot 應(yīng)用和服務(wù)的同學(xué)看看马澈。
論文鏈接:http://cn.arxiv.org/abs/1704.08966
推薦人:大俊瓢省,PaperWeekly 首席客服
?
#SLAM#
SfM-Net: Learning of Structure and Motion from Video
文章致力于解決目前 SfM/SLAM 在運動估計和三維重建中存在的問題:1.易受場景中移動物體干擾,2.相機運動和結(jié)構(gòu)估計的解的不唯一性痊班,3.紋理特征較弱情況下的算法穩(wěn)定性勤婚。
文章提出了 SfM-net,該網(wǎng)絡(luò)以前后兩幀圖像為輸入涤伐,支持通過測量誤差進行非監(jiān)督學(xué)習(xí)馒胆,同時支持以相機運動參數(shù)、場景深度信息進行監(jiān)督學(xué)習(xí)凝果;此外祝迂,網(wǎng)絡(luò)引入了對移動物體的運動估計,并施加了前后兩幀圖像前向器净、后向結(jié)構(gòu)和運動估計的一致性約束液兽;該網(wǎng)絡(luò)能夠以端到端的形式得到三維場景深度、相機運動參數(shù)掌动、移動物體運動掩模及其運動參數(shù)四啰。
文章在 KITTI、MoSeg 數(shù)據(jù)集上進行無監(jiān)督訓(xùn)練并測試粗恢,驗證了網(wǎng)絡(luò)在場景深度估計柑晒、移動物體運動掩模估計方面的性能;并且驗證了移動物體運動掩模的使用能夠提升場景深度估計的精度眷射。在 RGB-D SLAM 數(shù)據(jù)集上匙赞,文章以場景深度進行監(jiān)督學(xué)習(xí),通過對比 benchmark妖碉,SfM-net 獲得了更準確的相機運動參數(shù)估計涌庭。
論文鏈接:https://arxiv.org/abs/1704.07804
推薦人:高增輝,西安交通大學(xué)(PaperWeekly arXiv組志愿者)
?
#假新聞#
#數(shù)據(jù)集#
"Liar, Liar Pants on Fire": A New Benchmark Dataset for Fake News Detection
本文是 @王威廉 老師的工作欧宜,放出了一個假新聞檢測的數(shù)據(jù)集坐榆,感興趣的同學(xué)可以看過來。
數(shù)據(jù)地址:http://t.cn/Ra7mPuF
論文鏈接:http://cn.arxiv.org/abs/1705.00648
推薦人:大俊冗茸,PaperWeekly 首席客服
?
#NMT#
#ACL2017#
A Teacher-Student Framework for Zero-Resource Neural Machine Translation
本文工作的亮點在于利用“教師-學(xué)生”的學(xué)習(xí)框架席镀,在軸語言的幫助下匹中,對零資源的語言對直接建立翻譯模型。從而同時提高了翻譯質(zhì)量和解碼效率豪诲。本篇工作來自 PaperWeekly 作者團隊顶捷。
論文鏈接:http://cn.arxiv.org/abs/1705.00753
推薦人:大俊,PaperWeekly 首席客服
?
#NLG#
Neural Question Generation from Text: A Preliminary Study
文章首次提出了使用深度學(xué)習(xí)模型從文本中生成問題的方法屎篱。該任務(wù)為:給定一個自然語言句子及該句子中的一個連續(xù)子串服赎,要求根據(jù)該句子生成一個自然語言問題,且其答案為給定的子串交播。傳統(tǒng)方法基本為在句法樹上定義規(guī)則對其進行變換重虑,較為繁瑣且生成問題質(zhì)量不高。
該文章擴展了 seq2seq 模型堪侯,提出利用 feature-rich encoder 將答案位置信息進行編碼,從而生成針對該答案的問題荔仁。同時伍宦,文章還結(jié)合了 pointing 機制以解決低頻詞問題。在斯坦福的問答數(shù)據(jù)集(SQuAD)上乏梁,該文章在 BLEU-4 自動評測指標與人工標注指標上均顯著優(yōu)于傳統(tǒng)的基于規(guī)則的方法次洼。
文章基于 SQuAD 數(shù)據(jù)集,對其進行了處理與分割遇骑,發(fā)布了一個針對問題生成任務(wù)的數(shù)據(jù)集卖毁。該數(shù)據(jù)集可以在作者主頁下載。
數(shù)據(jù)集:https://res.qyzhou.me/
論文鏈接:https://arxiv.org/abs/1704.01792
推薦人:大俊落萎,PaperWeekly 首席客服
???