ALS是alternating least squares的縮寫 , 意為交替最小二乘法;而ALS-WR是alternating-least-squares with weighted-λ -regularization的縮寫首启,意為加權(quán)正則化交替最小二乘法。該方法常用于基于矩陣分解的推薦系統(tǒng)中毅桃。例如:將用戶(user)對商品(item)的評分矩陣分解為兩個矩陣:一個是用戶對商品隱含特征的偏好矩陣,另一個是商品所包含的隱含特征的矩陣准夷。在這個矩陣分解的過程中,評分缺失項(xiàng)得到了填充衫嵌,也就是說我們可以基于這個填充的評分來給用戶最商品推薦了。
ALS
由于評分?jǐn)?shù)據(jù)中有大量的缺失項(xiàng)楔绞,傳統(tǒng)的矩陣分解SVD(奇異值分解)不方便處理這個問題唇兑,而ALS能夠很好的解決這個問題。對于R(m×n)的矩陣扎附,ALS旨在找到兩個低維矩陣X(m×k)和矩陣Y(n×k),來近似逼近R(m×n)察纯,即:
為了找到使低秩矩陣X和Y盡可能地逼近R,需要最小化下面的平方誤差損失函數(shù):
gif.latex
(1×k)表示示用戶u的偏好的隱含特征向量病游,yi
(1×k)表示商品i包含的隱含特征向量, rui
表示用戶u對商品i的評分, 向量xu
和yi
的內(nèi)積xu
T
yi
是用戶u對商品i評分的近似。
損失函數(shù)一般需要加入正則化項(xiàng)來避免過擬合等問題衬衬,我們使用L2正則化,所以上面的公式改造為:
gif.latex
到這里,協(xié)同過濾就成功轉(zhuǎn)化成了一個優(yōu)化問題狮惜。由于變量xu和yi耦合到一起,這個問題并不好求解碾篡,所以我們引入了ALS,也就是說我們可以先固定Y(例如隨機(jī)初始化X)耽梅,然后利用公式(2)先求解X薛窥,然后固定X诅迷,再求解Y,如此交替往復(fù)直至收斂罢杉,即所謂的交替最小二乘法求解法趟畏。
具體求解方法說明如下:
先固定Y, 將損失函數(shù)L(X,Y)對*xu
*求偏導(dǎo)赋秀,并令導(dǎo)數(shù)=0,得到:
同理固定X猎莲,可得: 其中ru(1×n)是R的第u行,ri(1×m)是R的第i列, I是k×k的單位矩陣著洼。
迭代步驟:首先隨機(jī)初始化Y,利用公式(3)更新得到X, 然后利用公式(4)更新Y, 直到均方根誤差變RMSE化很小或者到達(dá)最大迭代次數(shù)身笤。
ALS-WR
上文提到的模型適用于解決有明確評分矩陣的應(yīng)用場景,然而很多情況下液荸,用戶沒有明確反饋對商品的偏好,也就是沒有直接打分娇钱,我們只能通過用戶的某些行為來推斷他對商品的偏好。比如涡尘,在電視節(jié)目推薦的問題中响迂,對電視節(jié)目收看的次數(shù)或者時長考抄,這時我們可以推測次數(shù)越多川梅,看得時間越長,用戶的偏好程度越高然遏,但是對于沒有收看的節(jié)目,可能是由于用戶不知道有該節(jié)目待侵,或者沒有途徑獲取該節(jié)目,我們不能確定的推測用戶不喜歡該節(jié)目。ALS-WR通過置信度權(quán)重來解決這些問題:對于更確信用戶偏好的項(xiàng)賦以較大的權(quán)重怨酝,對于沒有反饋的項(xiàng),賦以較小的權(quán)重农猬。ALS-WR模型的形式化說明如下:
ALS-WR的目標(biāo)函數(shù): 其中α是置信度系數(shù)。
求解方式還是最小二乘法: 其中Cu
其中Cu
是n×n的對角矩陣斤葱,Ci是m×m的對角矩陣;Cuii = cui, Ciii = cii揍堕。
參考來源:http://www.fuqingchuan.com/2015/03/812.html