2019-05-12

1. A Simple Convolutional Generative Network for Next Item Recommendation

  • WSDM 2019
  • Xiangnan He
  • session based 推薦况褪,推薦下一個物品
  • 把一個session的物品看作一個二維的矩陣撕贞,用CNN建模
  • 可以同時得到長期和短期的物品相關(guān)

2. Modeling Temporal Evidence from External Collections

  • WSDM 2019
  • 做搜索排序的
  • 估計(jì)與某個事件最相關(guān)的時間
  • 通過外部數(shù)據(jù)對Temporal Evidence建模,用來推斷主題的時間相關(guān)性窝剖,然后選擇the query expansion terms麻掸,再re-rank最后的排序結(jié)果

3. Recurrent Recommendation with Local Coherence

  • WSDM 2019
  • user-item打分預(yù)測
  • 用戶和item都在隨時間變化,在短期序列里面赐纱,相鄰的user或item很可能是很相關(guān)的(這點(diǎn)跟我們ijcai2018的文章想法類似)
  • 主要動機(jī)是認(rèn)為user和item都有l(wèi)ocal coherence和long-term evolution兩個性質(zhì)
  • 對于local coherence脊奋,用word2vec方式預(yù)訓(xùn)練出每個item和每個user的Embedding。把序列看作一個句子的做
  • 用類似word2vec的方法疙描,得到每一次rating事件的Embedding
  • 然后用RNN最對user序列和item序列建模诚隙,得到最后的預(yù)測結(jié)果
  • 數(shù)據(jù)集:Amazon(公開的),Goodreads(自己爬的)
  • 可以解決冷啟動問題(對新new或者新item)

4. A Dual Attention Network with Semantic Embedding for Few-shot Learning

  • AAAI 2019
  • Few-shot Learning:meta-learning的一種起胰,用少量的數(shù)據(jù)做參考久又,幫助預(yù)測任務(wù)
  • 做的圖像識別
  • 同時做兩個任務(wù):Meta Prediction和Semantic Prediction
  • meta prediction:兩個Attention,一個對圖片區(qū)域做Attention效五,一個對用來參考的多個圖片表示做Attention
  • semantic prediction:直接用圖片的Embedding地消,Average Pooling
  • 用了3個公開數(shù)據(jù)集:MiniImageNe,Omniglot畏妖,CIFAR100

5. A Hierarchical Multi-task Approach for Learning Embeddings from Semantic Tasks

  • AAAI 2019
  • 分層多任務(wù)text Embedding
  • 一套word Embedding用多層的BiLSTM同時做多個任務(wù)的預(yù)測脉执,模型結(jié)構(gòu)很簡單
  • 多任務(wù)有Named Entity Recognition、Entity Mention Detection戒劫、Coreference Resolution半夷、Relation Extraction

6. Attention-based Multi-Context Guiding for Few-Shot Semantic Segmentation

  • AAAI 2019
  • 圖片分割
  • 因?yàn)閹?biāo)簽的數(shù)據(jù)太少,生成數(shù)據(jù)標(biāo)簽代價大迅细,所以需要用盡可能少的數(shù)據(jù)得到答案巫橄,所以引入Few shot
  • Few shot就是一條訓(xùn)數(shù)據(jù)里面有幾條帶標(biāo)簽的“樣本數(shù)據(jù)”和一個待預(yù)測的數(shù)據(jù),通過利用樣本數(shù)據(jù)茵典,得到待預(yù)測數(shù)據(jù)的標(biāo)簽
  • 對圖片的建模湘换,通過對圖片區(qū)域的Attention,具體用的 Residual Attention Module统阿,大概就是在resnet網(wǎng)絡(luò)里面得到self Attention的key枚尼,value和query
  • 對樣本數(shù)據(jù)的建模,用的Conv-LSTM

7. A Deep Cascade Model for Multi-Document Reading Comprehension

  • AAAI 2019
  • 阿里的文章砂吞,阿里小蜜的應(yīng)用場景,人機(jī)對話的
  • 多文檔閱讀理解崎溃,問答
  • 兩個級別的Attention:文檔級別和句子級別
  • 通過question蜻直,對每個文檔做Attention,然后對每個句子做Attention,最后提取答案
  • 有離線數(shù)據(jù)測試和在線測試

8. Bias Reduction via End-to-End Shift Learning: Application to Citizen Science

  • AAAI 2019
  • 人們收集的數(shù)據(jù)往往帶有bias概而,就是訓(xùn)練集和測試集的分布不一致呼巷,這樣會導(dǎo)致在測試集上效果很差
  • Shift Learning,主要有兩種方法:covariate shift和label shift赎瑰,本文主要討論前者
  • 通過對訓(xùn)練數(shù)據(jù)加上不同的權(quán)重王悍,使得訓(xùn)練結(jié)果在測試集上表現(xiàn)好

9. BLOCK: Bilinear Superdiagonal Fusion for Visual Question Answering and Visual Relationship Detection

  • AAAI 2019
  • Bilinear 融合兩個向量表示,例如A \in R^n餐曼,B \in R^m压储,通過一個tensor T \in R^{n \times m \times k} 把A和B融合為一個長度為k的向量
  • BLOCK fusion model,就是把tensor T分塊源譬,每一塊中每個元素用3個向量相乘相加得到
  • 融合后的向量可以用來做多種任務(wù)

10. Context-Aware Self-Attention Networks

  • AAAI 2019
  • Tencent AI Lab
  • 方法挺簡單集惋,但動機(jī)很強(qiáng)
  • 傳統(tǒng)的self Attention,沒有考慮到context信息
  • 在Attention的query和key中引入context信息踩娘,使得計(jì)算出來的Attention weight考慮到了context
  • context信息可以是句子的整體表示刮刑,或者周圍的詞,等等

11. Contextualized Non-local Neural Networks for Sequence Learning

  • AAAI 2019
  • 一種基于Attention的graph Embedding方法做文本任務(wù)
  • 本文的序列就是句子
  • 把每個單詞看作node养渴,單詞之間有edge雷绢,然后動態(tài)更新node的表示和edge的權(quán)重
  • 圖的更新過程類似于Attention

12. Deep Interest Evolution Network for Click-Through Rate Prediction

  • AAAI 2019
  • 阿里的文章,應(yīng)該是KDD18(DIN)那篇的進(jìn)一步工作
  • 考慮到用戶歷史序列與當(dāng)前待預(yù)測的item的關(guān)系
  • 設(shè)計(jì)了兩個層用來提取用戶興趣和考慮到用戶興趣的變化:interest extractor layer和interest evolving layer
  • 在interest extractor layer中理卑,用GRU建模翘紊,然后引入了一個輔助loss,就是某時刻的h要與下一時刻的輸入相似傻工,類似于seq2seq的loss
  • interest evolving layer中利用了target item做Attention霞溪,具體做法是把Attention與GRU結(jié)合起來,Attention值控制了update gate

13. Deep Short Text Classification with Knowledge Powered Attention

  • AAAI 2019
  • 引入了外部知識庫的短文本分類
  • 短文本本身用BiLSTM和self Attention建模
  • 文本表示對外部知識庫做Attention中捆,得到外部知識的表示
  • 拼接文本表示和外部知識表示鸯匹,再得到預(yù)測結(jié)果

14. DeepDPM: Dynamic Population Mapping via Deep Neural Network

  • AAAI 2019
  • 動態(tài)高解析度的人群分布數(shù)據(jù)很有用,但是很難得到
  • 本文利用低解析度的數(shù)據(jù)來生成搞解析度的數(shù)據(jù)
  • 同時考慮到了空間和時間上的關(guān)系
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末泄伪,一起剝皮案震驚了整個濱河市殴蓬,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌蟋滴,老刑警劉巖染厅,帶你破解...
    沈念sama閱讀 206,378評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異津函,居然都是意外死亡肖粮,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,356評論 2 382
  • 文/潘曉璐 我一進(jìn)店門尔苦,熙熙樓的掌柜王于貴愁眉苦臉地迎上來涩馆,“玉大人行施,你說我怎么就攤上這事』昴牵” “怎么了蛾号?”我有些...
    開封第一講書人閱讀 152,702評論 0 342
  • 文/不壞的土叔 我叫張陵,是天一觀的道長涯雅。 經(jīng)常有香客問我鲜结,道長,這世上最難降的妖魔是什么活逆? 我笑而不...
    開封第一講書人閱讀 55,259評論 1 279
  • 正文 為了忘掉前任精刷,我火速辦了婚禮,結(jié)果婚禮上划乖,老公的妹妹穿的比我還像新娘贬养。我一直安慰自己,他們只是感情好琴庵,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,263評論 5 371
  • 文/花漫 我一把揭開白布误算。 她就那樣靜靜地躺著,像睡著了一般迷殿。 火紅的嫁衣襯著肌膚如雪儿礼。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,036評論 1 285
  • 那天庆寺,我揣著相機(jī)與錄音蚊夫,去河邊找鬼。 笑死懦尝,一個胖子當(dāng)著我的面吹牛知纷,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播陵霉,決...
    沈念sama閱讀 38,349評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼琅轧,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了踊挠?” 一聲冷哼從身側(cè)響起乍桂,我...
    開封第一講書人閱讀 36,979評論 0 259
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎效床,沒想到半個月后睹酌,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,469評論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡剩檀,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 35,938評論 2 323
  • 正文 我和宋清朗相戀三年憋沿,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片沪猴。...
    茶點(diǎn)故事閱讀 38,059評論 1 333
  • 序言:一個原本活蹦亂跳的男人離奇死亡辐啄,死狀恐怖甥绿,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情则披,我是刑警寧澤,帶...
    沈念sama閱讀 33,703評論 4 323
  • 正文 年R本政府宣布洗出,位于F島的核電站士复,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏翩活。R本人自食惡果不足惜阱洪,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,257評論 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望菠镇。 院中可真熱鬧冗荸,春花似錦、人聲如沸利耍。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,262評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽隘梨。三九已至程癌,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間轴猎,已是汗流浹背嵌莉。 一陣腳步聲響...
    開封第一講書人閱讀 31,485評論 1 262
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留捻脖,地道東北人锐峭。 一個月前我還...
    沈念sama閱讀 45,501評論 2 354
  • 正文 我出身青樓,卻偏偏與公主長得像可婶,于是被迫代替她去往敵國和親沿癞。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,792評論 2 345

推薦閱讀更多精彩內(nèi)容