1. How Does Knowledge of the AUC Constrain the Set of Possible Ground-truth Labelings?
- AAAI 2019
- 研究AUC能包含多少二分類的Ground-truth label信息
- 很多二分類競(jìng)賽中污朽,使用AUC作為評(píng)價(jià)指標(biāo),那么根據(jù)提交的結(jié)果以及返回的AUC值龙考,能推斷出多少信息呢膘壶?
- 例如4個(gè)數(shù)據(jù)的二分類問題,提交的預(yù)測(cè)值
洲愤,而返回結(jié)果是0.75的話颓芭,那么真實(shí)label一定是
- 一個(gè)簡(jiǎn)單的想法是,有n個(gè)測(cè)試數(shù)據(jù)的問題上柬赐,提交
次結(jié)果并得到返回的AUC亡问,就能得到全部n個(gè)真實(shí)的標(biāo)簽了(每次兩次只有一個(gè)不同,看auc相對(duì)大小就知道哪個(gè)猜對(duì)了)
- 然后該文章主要大量分析了只得到一次AUC值,能推斷出多少信息
2. Lattice CNNs for Matching Based Chinese Question Answering
- AAAI 2019
- 處理中文的文本匹配
-
因?yàn)橹形牡姆衷~情況很復(fù)雜州藕,如下圖束世。所以本文使用word lattice的方式來做文本匹配任務(wù)中的文本建模
中文的分詞情況 -
具體地說,就是先把文本建圖床玻,然后在圖上做CNN得到文本的表示毁涉,如圖:
文本建模過程 - 對(duì)文本建圖,是把百度百科上面的詞全拿下來做詞典(為了使得圖連通锈死,詞典還包括所有單個(gè)字和<unknown>)贫堰,然后文本中所有在詞典里面的串作為圖的節(jié)點(diǎn),相鄰的詞連邊待牵。
3. Large-Scale Heterogeneous Feature Embedding
- AAAI 2019
- 把各種各樣的大規(guī)模的特征做Embedding
- Embedding也就是表示學(xué)習(xí)其屏,把特征用低維的向量表示
- 以前的方法一般只對(duì)單一的特征做Embedding,然而真實(shí)世界中包含各種各樣的特征缨该,例如文本偎行,圖片,網(wǎng)絡(luò)贰拿。
- 存在學(xué)習(xí)多種特征表示蛤袒,但是都有太高的計(jì)算資源花費(fèi)
- 本文提出了一FeatWalk框架,主要解決兩個(gè)問題:
- 怎么有效的利用多樣的特征學(xué)習(xí)出一個(gè)統(tǒng)一的表示
- 怎么應(yīng)用到大規(guī)模場(chǎng)景下面而且保持有效
4. Mining Fashion Outfit Composition Using an End-to-End Deep Learning Approach on Set Data
- IEEE Trans. Multimedia 2017
- 自動(dòng)搭配套餐膨更,例如什么衣服配什么褲子妙真,配什么鞋子
- 數(shù)據(jù)驅(qū)動(dòng)的,收集了很多流行的搭配例子询一,然后學(xué)習(xí)出每個(gè)搭配方案的打分
- 主要挑戰(zhàn):需要處理復(fù)雜的視覺特征隐孽、打分受很多因素的影響癌椿,例如不同的人有不同的興趣
- 方法:先得到每個(gè)item的特征向量表示健蕊,然后用RNN對(duì)套裝里面的多個(gè)item建模,得到套裝的打分
- item表示:用CNN處理視覺圖片信息踢俄,用GloVe模型學(xué)出文本的表示缩功,然后Mean pooling得到文本特征,類別做Embedding都办,然后把3個(gè)特征拼起來得到一個(gè)item的特征
5. Practice on Long Sequential User Behavior Modeling for Click-Through Rate Prediction
- KDD 2019
- 阿里的文章
- 考慮到超長(zhǎng)用戶行為序列的CTR預(yù)估
- 以前的方法嫡锌,例如DIN,DIEN等等都不能處理太長(zhǎng)的序列琳钉,一般用的50長(zhǎng)度势木,150是極限了
- 然而用很簡(jiǎn)單的方法,序列長(zhǎng)度為1000的時(shí)候歌懒,AUC能比只用100的時(shí)候提升0.6%啦桌,而他們的應(yīng)用場(chǎng)景,提升0.3%就是顯著的了
- 太長(zhǎng)的序列會(huì)帶來計(jì)算時(shí)延和存儲(chǔ)空間兩大問題
- 本文把預(yù)估系統(tǒng)分為兩部分
- 一部分是User Interest Center(UIC),負(fù)責(zé)保持最后一次的用戶興趣表示甫男,同時(shí)依據(jù)用戶行為事件來更新
- 另一部分是memory network且改,包括讀寫
6. From Micro to Macro: Uncovering and Predicting Information Cascading Process with Behavioral Dynamics
- ICDM 2015
- Peng Cui團(tuán)隊(duì)的文章, 動(dòng)態(tài)流行度預(yù)測(cè)
- 通過早期的情況板驳,預(yù)測(cè)未來的趨勢(shì)
- 第一篇這樣做的工作
-
用一個(gè)公式擬合流行度的情況(WEibull):
擬合流行度的公式 - 其中
和
通過最大似然優(yōu)化得到
- 另外還用到了精心手動(dòng)提取的用戶的特征又跛,用戶特征做線性回歸同時(shí)也能擬合
和
- 數(shù)據(jù)集用的騰訊微博的數(shù)據(jù)
7. Estimating Node Importance in Knowledge Graphs Using Graph Neural Networks
- KDD 2019
- 在知識(shí)圖譜(KG)中估計(jì)節(jié)點(diǎn)的重要性
- 前人的工作一般都是在普通的圖上面計(jì)算節(jié)點(diǎn)的重要性,例如PageRank若治,本文是第一個(gè)在KG上面做的
- 需要考慮的幾個(gè)方面:鄰居慨蓝、邊的類型(關(guān)系)、中心度(centrality)直砂、輸入的分?jǐn)?shù)(用來訓(xùn)練的一部分節(jié)點(diǎn)的label)菌仁,方法的靈活性
- 節(jié)點(diǎn)的分?jǐn)?shù):相鄰節(jié)點(diǎn)的分?jǐn)?shù)的加權(quán)和,權(quán)重由兩個(gè)點(diǎn)和一個(gè)邊算出
- 中心度:由入度初始化静暂,然后迭代更新
- 最后的節(jié)點(diǎn)重要性由上面兩個(gè)值結(jié)合得到