重點:
1 線性回歸定義
2 cost function? 損失函數(shù)
3 梯度下降
線性回歸(Linear Regression)
注意!Aㄗ铩裕寨!
多變量線性回歸一定要做特征歸一化(Feature scaling)
常用方法
方法:
線性回歸屬于監(jiān)督學(xué)習(xí)拗盒,因此跟監(jiān)督學(xué)習(xí)的過程思路一致闸与,先根據(jù)已知label和數(shù)據(jù)擬合出線性模型浩峡。然后根據(jù)此模型可以預(yù)測其他數(shù)據(jù)可岂。在訓(xùn)練過程中,檢驗?zāi)P秃脡牡臉?biāo)準就是損失函數(shù)翰灾。損失函數(shù)越小缕粹,模型的擬合程度越高。
線性回歸模型:
為
維特征纸淮,
為
維特征權(quán)重平斩,
為預(yù)測值(hypothesis)
損失函數(shù)(cost function)
cost function: 模型評價標(biāo)準(并非唯一標(biāo)準,當(dāng)前部分損失函數(shù)只考慮了模型擬合度咽块,沒有考慮模型復(fù)雜度)绘面,cost function越小,說明擬合訓(xùn)練數(shù)據(jù)擬合的越好侈沪。
cost function公式:
? ? ? ? ? ? ? ??
其中:
為訓(xùn)練集的數(shù)量揭璃,
為損失函數(shù)。
梯度下降(Gradient Descent)
梯度下降能夠求出一個函數(shù)的最小值亭罪;
線性回歸需要求出瘦馍,使得cost function最小应役;
因此我們能夠?qū)ost function運用梯度下降情组,即將梯度下降與線性回歸進行整合。
重復(fù)迭代下面公式箩祥,直至收斂:
即為: