邏輯回歸的代價(jià)函數(shù):
與線性回歸一樣,它的梯度下降算法類似:
重復(fù)直到收斂 {
}
計(jì)算后會得到:
計(jì)算后得到的和線性回歸的看上去沒有區(qū)別,但是兩者的不同。
線性回歸的是:
邏輯回歸的是:
因?yàn)轭A(yù)測函數(shù)改變了咕幻,所以兩者的梯度下降算法是不一樣的线得。
舉例說明
假設(shè)數(shù)據(jù)集有5個(gè)樣本,每個(gè)樣本有2個(gè)特征值蓝翰,即如下:
初始化光绕,然后在輸入矩陣加上一列
,
先計(jì)算預(yù)測函數(shù):
代入函數(shù)畜份,可以的得到預(yù)測結(jié)果
代入J的公式
此時(shí)代價(jià)函數(shù)的值為:
下面計(jì)算第一次梯度下降的梯度值诞帐,代入下面的公式
即:
假設(shè),則
再次計(jì)算代價(jià)函數(shù)為:
這個(gè)例子用矩陣和向量來進(jìn)行了代價(jià)函數(shù)和梯度下降的計(jì)算爆雹。
轉(zhuǎn)載自:
https://codeeper.com/2020/01/11/tech/machine_learning/classification_gradient_descent.html