目標(biāo):
- 更簡化的方法得到代價(jià)函數(shù)
- 運(yùn)用梯度下降法擬合出邏輯回歸的參數(shù)。
化簡合并之后:
明確目標(biāo):
代價(jià)函數(shù)為:
求出參數(shù)使得:
如果有n個(gè)特征桑涎,那么
最小化代價(jià)函數(shù)的方法:
使用梯度下降法(gradient descent)
注意:
- 同步更新
- 雖然邏輯回歸和線性回歸梯度下降的更新參數(shù)的規(guī)則基本相同彬向,公式也幾乎一致,但是二者的不同攻冷,因而邏輯函數(shù)的梯度下降和線性回歸的梯度下降完全不同娃胆。
- 特征縮放的方法同樣適用于邏輯回歸,可以提高梯度下降的收斂速度等曼。
- 具體代碼實(shí)現(xiàn)時(shí)里烦,推薦使用向量化方法和庫函數(shù)。
- 需要手動(dòng)設(shè)置學(xué)習(xí)率禁谦,因此需要一些測(cè)試是否收斂的方法胁黑,例如將代價(jià)函數(shù)的變化值與某個(gè)閾值(e.g. 0.001)進(jìn)行比較;還可以繪制圖表枷畏,根據(jù)圖表來判斷梯度下降是否收斂(大規(guī)模訓(xùn)練集時(shí)并不現(xiàn)實(shí))别厘。