評分預(yù)測問題基本通過離線試驗進行研究惩猫。對于測試集中的一對用戶和物品(u,i),用戶u對物品i的真實評分是rui,而推薦算法預(yù)測的用戶對物品i的評分是rui(一個小帽子...見圖),那么一般用均方根誤差RMSE度量預(yù)測的精度:
評分預(yù)測的目的就是找到最好的模型最小化測試集的
評分預(yù)測算法
平均值
1.全局平均值
在平均值在最簡單的是全局平均值,他的定義為訓(xùn)練集中所有評分記錄的評分平均值:
2.用戶評分平均值
用戶u的評分平均值定義為訓(xùn)練集中所有評分的平均值
3.物品評分平均值
物品i的評分平均值定義為物品i在訓(xùn)練集中接受的所有評分的平均值
4.用戶分類對物品分類的平均值
除了這3種特殊的平均值纵装,在用戶評分數(shù)據(jù)上還可以定義很多不同的分類函數(shù):
①用戶和物品的平均分
②用戶活躍度和物品流行度
基于鄰域的方法
基于用戶的領(lǐng)域算法和基于物品的鄰域算法都可以應(yīng)用到評分預(yù)測中征讲。基于用戶的鄰域算法認為預(yù)測一個用戶對一個物品的評分诗箍,需要參考和這個用戶興趣相似的用戶對該物品的評分挽唉,即:
這里滤祖,S(u,k)適合用戶u興趣最相似的K個用戶的集合,N(i)是對物品i評過分的用戶集合瓶籽,rvi是用戶v對物品i的評分,rv帽子是用戶v對他評過分的所有物品評分的平均值塑顺,可以使用皮爾遜系數(shù)計算:
基于物品的鄰域算法在預(yù)測用戶u對物品i的評分時严拒,會參考用戶u對和物品i相似的其他物品的評分,即:
3種余弦相似度:
隱語義模型與矩陣分解模型
1.傳統(tǒng)SVD模型
首先需要對評分矩陣中的缺失值簡答補全挤牛,然后使用SVD分解為如下形式:
然后取最大一些奇異值組成新對角矩陣种蘸。不過有很多缺點:
①實際系統(tǒng)缺失值過多
②計算復(fù)雜度高
2.Simon Funk的SVD分解
將評分矩陣分解為兩個低維矩陣P和Q相乘航瞭。SF認為,既然我們用RMSE作為評測指標(biāo)沧奴,那么如果能找到合適的P和Q來最小化訓(xùn)練集的預(yù)測誤差,那么應(yīng)該也能最小化測試集的預(yù)測誤差。SF重新定義損失函數(shù):
為了防止過擬合疮绷,可以加入正則化參數(shù)λ:
要最小化上面的損失函數(shù)冬骚,我們可以采用隨機梯度下降法:
然后根據(jù)隨機梯度下降法,需要將參數(shù)沿著最速下降方向向前推進只冻,因此可以得到如下遞推公式:
其中α是學(xué)習(xí)速率(learning rate),它的取值需要反復(fù)試驗獲得
3.加入偏置項后的LFM
實際情況下喜德,一個評分系統(tǒng)有些固有屬性和用戶物品無關(guān)舍悯,而用戶也有屬性和物品無關(guān),物品也有屬性和用戶無關(guān)萌衬。因此秕豫,有人提出了另一種LFM預(yù)測公式如下:
新增加的三項作用如下:
μ:訓(xùn)練集中所有記錄的評分的全局平均數(shù)
bu:用戶偏置(user bias)項。這一項表示了用戶的評分習(xí)慣中和物品沒有關(guān)系的那種因素
bi:物品偏置(item bias)項呵晚。這一項表示了物品接受的評分中和用戶沒有什么關(guān)系的因素
增加的3個參數(shù)中沫屡,只有bu和bi是要通過機器學(xué)習(xí)訓(xùn)練出來的,同樣可以求導(dǎo)金矛,然后用梯度下降法來求解這兩個餐參數(shù)。
4.考慮鄰域影響的LFM
Koren提出將用戶歷史評分的物品加入LFM模型中勺届,稱為SVD++
首先對矩陣分解免姿,將參數(shù)個數(shù)降低到2nF個額,模型如下:
大大降低了參數(shù)的數(shù)量和存儲空間故俐。再進一步紊婉,我們可以將前面的LFM和上面的模型相加,從而得到如下模型:
Koren又提出槽片,為了不增加太多參數(shù)造成過擬合,可以令x=q:
加入時間信息
1.基于鄰域模型融合時間信息
TItemCF算法碌廓,通過如下公式預(yù)測用戶在某一個時刻會給物品什么評分:
△t=tui-tuj是用戶對物品i和物品j的評分差谷婆,wij是物品i和j的相似度勃刨,f是考慮了時間衰減后的相似度函數(shù),它的主要目的是提高用戶最近的評分行為對推薦結(jié)果的影響廷区,BigChaos在模型中采用了如下的f:
δ(x)是sigmoid函數(shù)贾铝,目的是將相似度壓縮到(0,1)區(qū)間中垢揩。從上面的定義可以發(fā)現(xiàn),隨著△t增加叁巨,f(wij,△t)會越來越小锋勺,也就是說用戶很久之前的行為對預(yù)測用戶當(dāng)前的評分影響越來越小
2.基于矩陣分解的模型融合時間信息
在引入時間信息以后,用戶評分矩陣不再是一個二維矩陣庶橱,而是三維矩陣苏章。不過我們可以使用前面的BiasSVD模型分解
模型融合
1.模型級聯(lián)融合
從書中描述發(fā)現(xiàn),級聯(lián)融合很像Adaboost算法枫绅。和Adaboost算法類似撑瞧,該算法每次產(chǎn)生一個新模型,按照一定的參數(shù)加到舊模型上去预伺,從而使訓(xùn)練集誤差最小化酬诀。不同的是,這里每一次生成新模型時并不對樣本集采樣瞒御,針對那些預(yù)測錯的樣本肴裙,而是每次每次都還是利用全樣本進行預(yù)測,但每次使用的模型都有區(qū)別
2.模型加權(quán)融合
一般來說蜻懦,評分預(yù)測問題的解決需要在訓(xùn)練集訓(xùn)練K個不同的預(yù)測器宛乃,然后在測試集上作出預(yù)測。但是征炼,如果我們繼續(xù)在訓(xùn)練集上融合K個預(yù)測器谆奥,得到線性加權(quán)系數(shù),就會造成過擬合的問題宰译。因此擂仍,在模型融合時一般采用如下方法:
①假設(shè)數(shù)據(jù)集已經(jīng)被分為訓(xùn)練集A和B,那么首先需要將訓(xùn)練集A按照相同的分隔方法分為A1和A2逢渔,其中A2的生成方法和B的生成方法一致肃廓,且大小相似;
②在A1上訓(xùn)練K個不同的預(yù)測器铣鹏,在A2上作出預(yù)測哀蘑,因為我們知道A2上的真實評分值葵第,所以可以在A2上利用最小二乘法計算出線性融合系數(shù)αk合溺;
③在A上訓(xùn)練K個不同的預(yù)測器,在B上作出預(yù)測哮奇,并且將這K個預(yù)測器在B上的預(yù)測結(jié)果按照已經(jīng)得到的線性融合系數(shù)加權(quán)融合睛约,以得到最終的預(yù)測結(jié)果
后記
-確定商業(yè)目標(biāo)和用戶滿意度之間的關(guān)系
-忘記冷啟動問題
-不要為了推薦而推薦
-不要浪費時間計算相似興趣的用戶辩涝,可以直接利用社會網(wǎng)路數(shù)據(jù)
-選擇合適的用戶反饋方式