嶺回歸
嶺回歸 的損失函數(shù) ? MSE+L2
嶺回歸還是多元線性回歸
y = wTx
只不過損失函數(shù)MSE添加了損失項
w越小越好?
因為為了提高模型的泛化能力(容錯能力)晓铆,w越小越好
因為如果x1有錯,w越小绰播,對y的影響越小
但是w為0 沒意義骄噪,所以w要適當(dāng)
保證準(zhǔn)確率的情況下提高泛化能力和容錯能力
多元線性回歸通過MSE(最小二乘 least squares)保證正確率
但是我們還需要模型提高泛化能力 ?提高泛化能力
min((y-y_hat)^2 + w^2) ??
通過上面的函數(shù)min(mse+w^2),均衡準(zhǔn)確率和泛化能力
如果==0? 說明不看重?fù)p失項,此時損失函數(shù)就是MSE? 蠢箩,一般情況下腰池,設(shè)置為0.4
一般添加了正則項尾组,會導(dǎo)致已有數(shù)據(jù)的準(zhǔn)確率下降,但是因為提高了泛化能力示弓,所以未來的數(shù)據(jù)的準(zhǔn)確率會上升
Lasso Regression
Lasso回歸的損失函數(shù)為 MSE+L1
一般情況下? 如果考慮泛化能力? 會采用L2, L1一般用于特征選擇
L1會使有的w趨近于0 ? 有的趨近于1讳侨,? 主要用于降維和特征選擇
Elastic Net
使用情況:在不知道加L1還是L2的情況下,自己調(diào)整參數(shù)就可以了
兼顧L1 和 L2
通過參數(shù)調(diào)整? 決定更看重L1 還是 L2