- 為什么要正則化?
- 正則化的本質(zhì)是什么荤傲?
- 正則化有哪些方法耻涛?
1.為什么要正則化?
正則化可以解決模型過擬合的問題敌卓,產(chǎn)生過擬合一般有三個原因:
-
訓(xùn)練數(shù)據(jù)過少
如果數(shù)據(jù)本身就不夠多慎式,無法覆蓋真實的數(shù)據(jù)分布,那么數(shù)據(jù)訓(xùn)練會對現(xiàn)有的片面數(shù)據(jù)訓(xùn)練過度
- 數(shù)據(jù)特征過多(也屬于模型過于復(fù)雜)
大道至簡趟径,雖然影響一件事情的因素有很多瘪吏,即使是有多元思維模型的人也難以窮盡這些因素,求解模型也一樣蜗巧,總有幾個或者沒有那么多的特征才值得去重用掌眠,其他的權(quán)重稍微影響稍微有存在感即可 - 模型過于復(fù)雜
人腦善于把復(fù)雜的東西,進行歸納和總結(jié)幕屹,甚至是抽象出“概念”蓝丙,即是越復(fù)雜的東西越難尋根問底,越難的東西不一定越高級望拖、越好渺尘,數(shù)學(xué)公式向來都是美妙而簡潔(一般來說)。
2.正則化的本質(zhì)是什么说敏?
本質(zhì)是對權(quán)重W的約束鸥跟。某個特征的權(quán)重越小,該特征就越不能起決定作用盔沫,改無關(guān)緊要的特征只能對模型進行微調(diào)医咨,擾動較小,可以讓模型專注于有決定性的那些特征架诞。
3.正則化有哪些方法拟淮?
在梯度下降推導(dǎo)中,我們希望調(diào)整W谴忧,使得損失函數(shù)越來越小很泊,所以可以給損失函數(shù)添加一個關(guān)于的懲罰項,用來約束俏蛮,即
常見的懲罰項有L2和L1的罰項
L2:
可以防止模型過擬合(overfitting)
L1:
可以產(chǎn)生稀疏權(quán)值矩陣撑蚌,即產(chǎn)生一個稀疏模型,可以用于特征選擇搏屑,一定程度上也可以防止過擬合
- 嶺回歸
嶺回歸可以使得某些不重要的權(quán)重w變小 - LASSO回歸
LASSO回歸可以使某些權(quán)重在訓(xùn)練的過程中變?yōu)?
注意:是需要我們自己指定争涌,是懲罰項的懲罰力度 ,L1本身就有很大的懲罰力度辣恋,可以使得某些w為0亮垫, 可以進行特征選擇模软。L2常用,模型屬于L2的多饮潦。