在現(xiàn)實(shí)生活中,我們需要處理的數(shù)據(jù)大部分的量綱都是不一樣的师郑,如果不做歸一化的話就會(huì)會(huì)出現(xiàn)的問題是,不同量綱的數(shù)據(jù)在梯度下降過程中下降的速度是不一樣的调窍, 但是如果數(shù)據(jù)都是同一量綱下的數(shù)據(jù)的話宝冕,找到最優(yōu)解的迭代次數(shù)會(huì)少很多,容易更快找到最優(yōu)解邓萨。
所以數(shù)據(jù)需要?dú)w一化
在實(shí)際應(yīng)用過程中呢并不是所有的模型都需要?dú)w一化地梨,比如需要梯度下架的模型是比較需要
- 線性回歸
- 邏輯回歸
- 各種神經(jīng)網(wǎng)絡(luò)
- 支持向量機(jī)
但是決策樹卻不需要,這是因?yàn)閿?shù)據(jù)歸一化缔恳,并不能改變數(shù)據(jù)信息增益比宝剖,對決策并沒有幫助。
歸一化的方法:
分為兩種:
- 通過線性函數(shù)的歸一化
- 零均值歸一化
其實(shí)就是化為標(biāo)準(zhǔn)正太分布歉甚,感覺是一個(gè)意思反正 哈哈??
假設(shè)原始特征值為,標(biāo)準(zhǔn)差為
大概就是這樣了万细,再多的我也不知道了