別人的總結
1. Point-wise模型
一般的ctr逛揩,cvr預估就是point-wise的模型沪猴。
2. Pair-wise模型
2.1 Ranking SVM
這種思想可以用于各種線性分類模型中,把svm換成logistic regression也是可以的澈魄。
根據(jù)樣本的相關度將樣本進行排序景鼠,然后進行組隊,例如x1的相關度大于x2的痹扇,可以有兩個樣本生成(x1,x2)=1,與(x2,x1)=-1.利用這樣的樣本使用SVM進行分類铛漓,這時候的分類算法可以采用各種不同的分類算法。
其中比較重要的就是樣本的生成帘营,具體可以看這里票渠,簡要來說就是因為本來用戶點擊文檔就受到排列順序的干擾逐哈,因此根據(jù)用戶點擊的結果芬迄,我們能夠確定的樣本就是:本來排在后面的,結果用戶點擊了昂秃,這樣這篇文檔的相關度就大于排在文檔前面但是沒有被點擊的文檔禀梳。
2.2 RankNet
RankNet同上面的RankSVM是一樣的杜窄,都是利用了pair-wise來生成訓練數(shù)據(jù)。不同的是算途,在這個算法里塞耕,利用了神經(jīng)網(wǎng)絡來對文檔的相關度進行了評分,然后以兩個文檔的相關度比較的排序概率來作為學習目標嘴瓤。
實際上扫外,就是對兩個文檔的相關度之差使用sigmiod函數(shù)做了[0,1]映射。這個函數(shù)的損失函數(shù)廓脆,使用了交叉熵:
3. List-wise模型
3.1 LambdaRank
上面raknnet的缺點在于只關注了文檔排序的相對位置筛谚,而在實際的應用場景中,關于information retrieval meause, 有很多其他的指標(NDGG, MAP等等)停忿,交叉熵的指標并不符合這些指標驾讲。因此,LambdaRank做了兩點工作:
1.抽象出了lambda的概念
2.在ranknet的基礎上席赂,對梯度lambda做了修正吮铭,加上了information retrieval measure的因子。
3.2 LambdaMART
既然已經(jīng)抽象出梯度颅停,那么就是在對梯度進行學習谓晌,因此lambdamart利用回歸樹對梯度進行學習。