主要學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)和深度學(xué)習(xí)
一暇矫、處理訓(xùn)練集
有一個包含m個樣本的訓(xùn)練集并级,不用for循環(huán)處理
二逐哈、邏輯回歸
適用于二分類問題
為什么需要代價函數(shù)
為了讓模型通過學(xué)習(xí)調(diào)整參數(shù)阱洪,你需要給予一個m樣本的訓(xùn)練集便贵,這會讓你在訓(xùn)練集上找到參數(shù)w和參數(shù)b,,來得到你的輸出冗荸。
作為二分類問題承璃,得到的結(jié)果應(yīng)該是將線性輸出轉(zhuǎn)換為非線性輸出后的結(jié)果,用sigmoid函數(shù)進行線性轉(zhuǎn)化為非線性蚌本。
sigmoid函數(shù):
image.png
損失函數(shù)
來衡量預(yù)測輸出值和實際值有多接近
在邏輯回歸中用到的損失時函數(shù)
梯度下降法
在你測試集上绸硕,通過最小化代價函數(shù)(成本函數(shù))J(w,b)來訓(xùn)練的參數(shù)w和b
導(dǎo)數(shù):
學(xué)過,略