現(xiàn)在來約定一些變量
"m"
= Number of training examples(表示訓(xùn)練樣本的數(shù)目)
"x"
="input" variable /features (輸入變量或者是特征變量)
"y"
="output" variable/"target" variables (輸出變量或者目標(biāo)變量)
Model Representation(模型表示)
線性回歸模型(Linear regression)模型扬绪,說簡單點就是一個關(guān)于單變量的線性回歸,即單變量線性回歸這個變量就是x绍昂。
Cost Functon(代價函數(shù))
代價函數(shù)的概念纤掸,使得我們能夠弄清楚如何把最有可能的直線與我們的數(shù)據(jù)相擬合劫笙。代價函數(shù)也被稱為平方誤差函數(shù)或者平方誤差代價函數(shù)晾浴。我們之所以要求出誤差的平方和,是因為平方誤差代價函數(shù)對于大多數(shù)回歸問題都是一個合理的選擇榜田。(還有其他的代價函數(shù)益兄,但是平方誤差代價函數(shù)可能是解決回歸問題最常用的手段,后續(xù)會討論其他的)
代價函數(shù)的工作原理:求出與我們的數(shù)據(jù)相擬合的最有可能的直線
代價函數(shù)到底在計算什么: 誤差箭券。因為代價函數(shù)實際上是就是代價函數(shù)所求的值越小净捅,那么誤差就越小,擬合出來的曲線越接近數(shù)據(jù)的實際情況
通過給假設(shè)函數(shù)的自變量賦值帶入辩块,然后求出J的值蛔六,從而手動的擬合出一條曲線,估計出J的最小值废亭。
所以其實根據(jù)已經(jīng)有的點來獲得擬合函數(shù)国章,1是可以通過《HeadFirst DA》來直接用excel來擬合,2是可以通過已經(jīng)有的點來手動擬合這點應(yīng)該只是高中的知識豆村。3是 可以通過代價函數(shù)液兽,求出相關(guān)性最大的公式。
更加深入的學(xué)習(xí)代價函數(shù)的作用:
contour plot 或contour figure都是輪廓圖的意思
右邊輪廓圖中的一個點掌动,就是左邊圖像中的一條線四啰。
即,我們真正需要的坏匪,是編寫程序來找出最小化代價函數(shù)的θ0和θ1的值拟逮,我們需要知道一種算法,能夠自動地找出能使代價函數(shù) J 最小化的參數(shù)θ0和θ1的值 适滓,這就要引出下一節(jié)討論的內(nèi)容——梯度下降函數(shù)敦迄。