1. A Simple Convolutional Generative Network for Next Item Recommendation
- WSDM 2019
- Xiangnan He
- session based 推薦况褪,推薦下一個物品
- 把一個session的物品看作一個二維的矩陣撕贞,用CNN建模
- 可以同時得到長期和短期的物品相關(guān)
2. Modeling Temporal Evidence from External Collections
- WSDM 2019
- 做搜索排序的
- 估計(jì)與某個事件最相關(guān)的時間
- 通過外部數(shù)據(jù)對Temporal Evidence建模,用來推斷主題的時間相關(guān)性窝剖,然后選擇the query expansion terms麻掸,再re-rank最后的排序結(jié)果
3. Recurrent Recommendation with Local Coherence
- WSDM 2019
- user-item打分預(yù)測
- 用戶和item都在隨時間變化,在短期序列里面赐纱,相鄰的user或item很可能是很相關(guān)的(這點(diǎn)跟我們ijcai2018的文章想法類似)
- 主要動機(jī)是認(rèn)為user和item都有l(wèi)ocal coherence和long-term evolution兩個性質(zhì)
- 對于local coherence脊奋,用word2vec方式預(yù)訓(xùn)練出每個item和每個user的Embedding。把序列看作一個句子的做
- 用類似word2vec的方法疙描,得到每一次rating事件的Embedding
- 然后用RNN最對user序列和item序列建模诚隙,得到最后的預(yù)測結(jié)果
- 數(shù)據(jù)集:Amazon(公開的),Goodreads(自己爬的)
- 可以解決冷啟動問題(對新new或者新item)
4. A Dual Attention Network with Semantic Embedding for Few-shot Learning
- AAAI 2019
- Few-shot Learning:meta-learning的一種起胰,用少量的數(shù)據(jù)做參考久又,幫助預(yù)測任務(wù)
- 做的圖像識別
- 同時做兩個任務(wù):Meta Prediction和Semantic Prediction
- meta prediction:兩個Attention,一個對圖片區(qū)域做Attention效五,一個對用來參考的多個圖片表示做Attention
- semantic prediction:直接用圖片的Embedding地消,Average Pooling
- 用了3個公開數(shù)據(jù)集:MiniImageNe,Omniglot畏妖,CIFAR100
5. A Hierarchical Multi-task Approach for Learning Embeddings from Semantic Tasks
- AAAI 2019
- 分層多任務(wù)text Embedding
- 一套word Embedding用多層的BiLSTM同時做多個任務(wù)的預(yù)測脉执,模型結(jié)構(gòu)很簡單
- 多任務(wù)有Named Entity Recognition、Entity Mention Detection戒劫、Coreference Resolution半夷、Relation Extraction
6. Attention-based Multi-Context Guiding for Few-Shot Semantic Segmentation
- AAAI 2019
- 圖片分割
- 因?yàn)閹?biāo)簽的數(shù)據(jù)太少,生成數(shù)據(jù)標(biāo)簽代價大迅细,所以需要用盡可能少的數(shù)據(jù)得到答案巫橄,所以引入Few shot
- Few shot就是一條訓(xùn)數(shù)據(jù)里面有幾條帶標(biāo)簽的“樣本數(shù)據(jù)”和一個待預(yù)測的數(shù)據(jù),通過利用樣本數(shù)據(jù)茵典,得到待預(yù)測數(shù)據(jù)的標(biāo)簽
- 對圖片的建模湘换,通過對圖片區(qū)域的Attention,具體用的 Residual Attention Module统阿,大概就是在resnet網(wǎng)絡(luò)里面得到self Attention的key枚尼,value和query
- 對樣本數(shù)據(jù)的建模,用的Conv-LSTM
7. A Deep Cascade Model for Multi-Document Reading Comprehension
- AAAI 2019
- 阿里的文章砂吞,阿里小蜜的應(yīng)用場景,人機(jī)對話的
- 多文檔閱讀理解崎溃,問答
- 兩個級別的Attention:文檔級別和句子級別
- 通過question蜻直,對每個文檔做Attention,然后對每個句子做Attention,最后提取答案
- 有離線數(shù)據(jù)測試和在線測試
8. Bias Reduction via End-to-End Shift Learning: Application to Citizen Science
- AAAI 2019
- 人們收集的數(shù)據(jù)往往帶有bias概而,就是訓(xùn)練集和測試集的分布不一致呼巷,這樣會導(dǎo)致在測試集上效果很差
- Shift Learning,主要有兩種方法:covariate shift和label shift赎瑰,本文主要討論前者
- 通過對訓(xùn)練數(shù)據(jù)加上不同的權(quán)重王悍,使得訓(xùn)練結(jié)果在測試集上表現(xiàn)好
9. BLOCK: Bilinear Superdiagonal Fusion for Visual Question Answering and Visual Relationship Detection
- AAAI 2019
- Bilinear 融合兩個向量表示,例如餐曼,压储,通過一個tensor 把A和B融合為一個長度為k的向量
- BLOCK fusion model,就是把tensor T分塊源譬,每一塊中每個元素用3個向量相乘相加得到
- 融合后的向量可以用來做多種任務(wù)
10. Context-Aware Self-Attention Networks
- AAAI 2019
- Tencent AI Lab
- 方法挺簡單集惋,但動機(jī)很強(qiáng)
- 傳統(tǒng)的self Attention,沒有考慮到context信息
- 在Attention的query和key中引入context信息踩娘,使得計(jì)算出來的Attention weight考慮到了context
- context信息可以是句子的整體表示刮刑,或者周圍的詞,等等
11. Contextualized Non-local Neural Networks for Sequence Learning
- AAAI 2019
- 一種基于Attention的graph Embedding方法做文本任務(wù)
- 本文的序列就是句子
- 把每個單詞看作node养渴,單詞之間有edge雷绢,然后動態(tài)更新node的表示和edge的權(quán)重
- 圖的更新過程類似于Attention
12. Deep Interest Evolution Network for Click-Through Rate Prediction
- AAAI 2019
- 阿里的文章,應(yīng)該是KDD18(DIN)那篇的進(jìn)一步工作
- 考慮到用戶歷史序列與當(dāng)前待預(yù)測的item的關(guān)系
- 設(shè)計(jì)了兩個層用來提取用戶興趣和考慮到用戶興趣的變化:interest extractor layer和interest evolving layer
- 在interest extractor layer中理卑,用GRU建模翘紊,然后引入了一個輔助loss,就是某時刻的h要與下一時刻的輸入相似傻工,類似于seq2seq的loss
- interest evolving layer中利用了target item做Attention霞溪,具體做法是把Attention與GRU結(jié)合起來,Attention值控制了update gate
13. Deep Short Text Classification with Knowledge Powered Attention
- AAAI 2019
- 引入了外部知識庫的短文本分類
- 短文本本身用BiLSTM和self Attention建模
- 文本表示對外部知識庫做Attention中捆,得到外部知識的表示
- 拼接文本表示和外部知識表示鸯匹,再得到預(yù)測結(jié)果
14. DeepDPM: Dynamic Population Mapping via Deep Neural Network
- AAAI 2019
- 動態(tài)高解析度的人群分布數(shù)據(jù)很有用,但是很難得到
- 本文利用低解析度的數(shù)據(jù)來生成搞解析度的數(shù)據(jù)
- 同時考慮到了空間和時間上的關(guān)系