模型表示
m:表示訓(xùn)練樣本數(shù)量
x:表示輸入的特征,也被稱為特征量
y:表示輸出變量说庭,或目標(biāo)變量
(x,y):表示一個(gè)訓(xùn)練樣本
(x(i),y(i)):表示第i個(gè)訓(xùn)練樣本然磷,其中i為索引,并不是冪運(yùn)算
h:代表hypothesis(假設(shè))口渔,表示一個(gè)從x到y(tǒng)的函數(shù)映射。
設(shè)計(jì)學(xué)習(xí)算法的時(shí)候穿撮,需要思考的是怎么得到這個(gè)假設(shè)h缺脉。
h表示:hθ(x) = θ0 + θ1x,其中hθ(x) 可縮寫為h(x) 悦穿。
這個(gè)模型被稱為線性回歸(linear regression)模型攻礼。
supervised learning.png
Cost Function(損失函數(shù)、代價(jià)函數(shù))
損失函數(shù):用于衡量模型與實(shí)際樣本數(shù)據(jù)的差距栗柒,也就是損失程度礁扮。
對(duì)于大多數(shù)問題,特別是回歸問題瞬沦,損失函數(shù)使用平方誤差函數(shù)太伊,如圖:
回歸損失函數(shù).png
h函數(shù)(hypothesis)的目標(biāo)是使J(θ0,θ1)(損失函數(shù))最小僚焦。
課程總結(jié)
內(nèi)容總結(jié).png
J(θ0,θ1)損失函數(shù)兩種圖形表示
損失函數(shù)三維圖形.png
contour plot(輪廓圖):同一條線上的J(θ0,θ1)相等。
損失函數(shù)輪廓圖.png
我們后面會(huì)遇到更復(fù)雜曙痘、更高維度芳悲、更多參數(shù)的情況立肘,而這些情況是很難畫出圖的,因此更無法將其可視化名扛,因此我們真正需要的是編寫程序來找出這些最小化代價(jià)函數(shù)的θ0和θ1的值谅年。
在下一節(jié)視頻中,我們將介紹一種算法肮韧,能夠自動(dòng)地找出能使代價(jià)函數(shù) J最小化的參數(shù)θ0和θ1的值融蹂。