(注意:在使用下標(biāo)時(shí)模暗,我會(huì)在下標(biāo)前面加上‘_’符號(hào)來表示后面為下標(biāo)項(xiàng)工窍。)
4.1 多維特征
第二章節(jié)我們所講的算法的特征值只有一個(gè),但是在實(shí)際應(yīng)用中我們的特征值有多個(gè)疙驾。
我們先看下圖:
上圖是房價(jià)模型的特征和其值的表。
如何表示上圖模型中的特征和特征值:
n 代表特征的數(shù)量
x^(i) 代表第i個(gè)訓(xùn)練實(shí)例昏翰,是特征矩陣中的第i行苍匆,是一個(gè)向量。
例如x^(2)為:?
x_j^(i)?代表特征矩陣中第i行的第j個(gè)特征棚菊,也就是第i個(gè)訓(xùn)練實(shí)例的第j個(gè)特征浸踩。
例如:對于上圖來講x_2^(2)=3
多變量線性回歸下假設(shè)函數(shù)的改變:
之前我們介紹的假設(shè)函數(shù)如下:
我們可以發(fā)現(xiàn),假設(shè)函數(shù)中有n+1個(gè)參數(shù)和n個(gè)變量统求,為了方便我們加入 x_0 = 1 检碗。
此時(shí)假設(shè)函數(shù)為:
多變量線性回歸下假設(shè)函數(shù):
我們可以看見,引入?x_0 = 1?后并沒有改變之前的假設(shè)函數(shù)码邻,但是卻方便了我們進(jìn)行矩陣運(yùn)算折剃。
4.2 多變量梯度下降算法
下面是我們之前總結(jié)過的公式:
我們的目標(biāo)仍然是取得代價(jià)函數(shù)的最小值來使預(yù)測更精準(zhǔn)。
回歸的批量梯度下降算法如下:
即:
求導(dǎo)后:
批量梯度下降算法的特征值個(gè)數(shù)n為1時(shí)像屋,如下:
批量梯度下降算法的特征值個(gè)數(shù)特征值個(gè)數(shù)n為1 >= 1 時(shí)怕犁,如下:
進(jìn)行模型參數(shù)的更新時(shí),表現(xiàn)如下:
在批量梯度下降算法的使用過程中己莺,計(jì)算所有的預(yù)測結(jié)果后奏甫,再進(jìn)行模型參數(shù)的更新,反復(fù)循環(huán)這個(gè)過程最終使得代價(jià)函數(shù)的值達(dá)到我們的要求凌受。
4.3 批量梯度下降算法1:特征縮放
特征縮放:目的是幫助梯度下降算法可以更快的進(jìn)行收斂扶檐。
特征縮放的最簡單方法是:
????其中μ_n是平均值,S_n是標(biāo)準(zhǔn)差
舉例說明:
以房價(jià)問題為例胁艰,我們有兩個(gè)特征分別為房屋尺寸和房屋的房間數(shù)量,其中房屋尺寸的值為 0-2000平方英尺智蝠,而房間數(shù)量的值則是0-5腾么。以兩個(gè)參數(shù)分別為橫縱坐標(biāo)。
在縮放前的上圖左圖杈湾,繪制代價(jià)函數(shù)的等高線圖像呈現(xiàn)出豎扁的狀態(tài)解虱,在這種情況下梯度下降算法需要很多次的迭代才能收斂。
在上圖右圖中是我們使用了特征縮放后的等高線圖像漆撞。通過對特征值x_1和x_2的變換殴泰,把特征值縮放到了-1到1之間,等高線圖像呈現(xiàn)出一個(gè)偏正的圓形浮驳,在此種情況下我們可以更快的進(jìn)行收斂悍汛。
縮放程度:
在進(jìn)行縮放的時(shí)候,縮放的結(jié)果不能是一個(gè)太大的值也不能是一個(gè)太小的值至会。例如上圖中特征值縮放后x_1和x_2的取值范圍就可以接受离咐,但是x_3和x_4就不行。
詳細(xì)說明房價(jià)例子中的特征縮放:
4.4
?批量梯度下降算法2:學(xué)習(xí)率
學(xué)習(xí)率:在梯度下降算法中用α表示,用來控制我們向下收斂的步子大小宵蛀。
梯度下降算法收斂所需要的迭代次數(shù)根據(jù)模型的不同而不同,我們需要通過繪制迭代次數(shù)和代價(jià)函數(shù)的圖表來觀測算法的收斂情況。
比如做出下圖的圖像匀油,然后根據(jù)圖像的狀態(tài)來進(jìn)行收斂螺句。
怎么解決的?
具體過程梧宫?
幾種情況
總結(jié)
4.5 特征和多項(xiàng)式回歸
合適特征值的選擇接谨!
比如在特征值基礎(chǔ)上創(chuàng)造新的特征值
多項(xiàng)式回歸
是什么?干什么的祟敛?
注意使用特征縮放
4.6 正規(guī)方程(區(qū)別于迭代方法的直接解法)
是什么疤坝?
直觀理解