1.特征選擇 --> 得到不同的學(xué)習(xí)算法
2.多項(xiàng)式回歸 -->使用線性回歸的方法來(lái)擬合非常復(fù)雜的函數(shù)
比如對(duì)于一條曲線, ?θ(x) = θ0 +θ1x^1 + θ2x^2 + θ3*x^3
把單元線性回歸 轉(zhuǎn)化為多元線性回歸 沥寥,令
- a1 = x^1
- a2 = x^2
- a3 = x^3
即:?θ(x) = θ0 +θ1a1 + θ2a2 + θ3*a3
兩個(gè)等式是相等的,再通過(guò)線性回歸的方法,進(jìn)行擬合
如果通過(guò)這種方法選擇特征爵川,那么特征歸一化就會(huì)變得非常重要了(day4中學(xué)習(xí)過(guò))
如果使用梯度下降方法躺率,特征值必須歸一化
對(duì)于二次函數(shù)恋捆,因?yàn)樽罱K可能會(huì)有下降溉瓶,所以可以用平方根函數(shù)來(lái)擬合急鳄,上升慢慢變得平緩谤民,但是不會(huì)降下來(lái)
總結(jié):在很多情況下,可以使用更復(fù)雜的函數(shù)取擬合數(shù)據(jù)疾宏,而不一定是直線张足,特別是,可以使用多項(xiàng)式函數(shù)坎藐。