1界弧、多特征變量及其相關(guān)概念
Paste_Image.png
2、多變量線性回歸划栓,其中表達式可轉(zhuǎn)化為向量相乘条获,注意令x0 = 1
Paste_Image.png
3、
Paste_Image.png
4堂油、單變量線性回歸中梯度下降法中的求導(dǎo)
(求導(dǎo)過程中把theta 0 素标、theta 1當(dāng)作相應(yīng)變量)
Paste_Image.png
單變量線性回歸和多變量線性回歸的梯度下降發(fā)參數(shù)更新對比
Paste_Image.png
5头遭、特征值之間的scale相差較大時,J(theta)容易出現(xiàn)細(xì)高的橢圓形形狀袜香,不利于收斂
Paste_Image.png
6鲫惶、對各個特征值進行標(biāo)準(zhǔn)化,每個特征值減去相應(yīng)項的平均值再除以max - min
Paste_Image.png
7欢策、為什么是
Paste_Image.png
而不是
Paste_Image.png
Paste_Image.png
明白了!
縱坐標(biāo)其實應(yīng)該是
Paste_Image.png
Paste_Image.png
Paste_Image.png
8场靴、迭代次數(shù)在四百處曲線梯度趨于平緩港准,梯度下降收斂
Paste_Image.png
9叉趣、梯度下降算法沒有正確運行的話该押,the plot 如下左邊兩張:
Paste_Image.png
解決方法如下:
Paste_Image.png
即調(diào)試得到一個值較小的a值
A中的斜率較B中的J值變化率要大
Paste_Image.png
10、X1 梢什、X2...是特征值
Paste_Image.png
11朝聋、octave 語法:最下面的紅字部分是相等的
Paste_Image.png
12冀痕、紅框中是normal equation(正規(guī)方程方法),使用正規(guī)方程時是沒必要對特征值進行歸一化的
Paste_Image.png
13僻他、梯度下降法和正規(guī)方程優(yōu)缺點對比
Paste_Image.png