吳恩達深度學(xué)習(xí)筆記(12)-計算圖計算梯度下降

邏輯回歸中的梯度下降(Logistic Regression Gradient Descent)

本節(jié)我們討論怎樣通過計算偏導(dǎo)數(shù)來實現(xiàn)邏輯回歸的梯度下降算法扇商。

它的關(guān)鍵點是幾個重要公式案铺,其作用是用來實現(xiàn)邏輯回歸中梯度下降算法。

但是在本節(jié)中返吻,將使用計算圖對梯度下降算法進行計算乎婿。必須要承認的是谢翎,使用計算圖來計算邏輯回歸的梯度下降算法有點大材小用了。但是榨婆,以這個例子作為開始來講解良风,可以使你更好的理解背后的思想璃搜。從而在討論神經(jīng)網(wǎng)絡(luò)時这吻,你可以更深刻而全面地理解神經(jīng)網(wǎng)絡(luò)。

接下來讓我們開始學(xué)習(xí)邏輯回歸的梯度下降算法怠硼。

假設(shè)樣本只有兩個特征x_1和x_2香璃,為了計算z舟误,我們需要輸入?yún)?shù)w_1嵌溢、w_2 和b赖草,除此之外還有特征值x_1和x_2。因此z的計算公式為: z=w_1 x_1+w_2 x_2+b??

回想一下邏輯回歸的公式定義如下:

^y=a=σ(z) 其中z=w^T x+b 版确, σ(z)=1/(1+e^(-z) )?

損失函數(shù): ??

代價函數(shù):??

假設(shè)現(xiàn)在只考慮單個樣本的情況侵歇,單個樣本的代價函數(shù)定義如下:


其中a是邏輯回歸的輸出吓蘑,y是樣本的標簽值。

現(xiàn)在讓我們畫出表示這個計算的計算圖。 這里先復(fù)習(xí)下梯度下降法棋嘲,w和b的修正量可以表達如下:


如圖:在這個公式的外側(cè)畫上長方形沸移。

然后計算: ^y=a=σ(z) 也就是計算圖的下一步雹锣。最后計算損失函數(shù)L(a,y)蕊爵。

有了計算圖桦山,我就不需要再寫出公式了。

因此恒水,為了使得邏輯回歸中最小化代價函數(shù)L(a,y)会放,我們需要做的僅僅是修改參數(shù)w和b的值。前面我們已經(jīng)講解了如何在單個訓(xùn)練樣本上計算代價函數(shù)的前向步驟钉凌。

現(xiàn)在讓我們來討論通過反向計算出導(dǎo)數(shù)咧最。 因為我們想要計算出的代價函數(shù)L(a,y)的導(dǎo)數(shù),首先我們需要反向計算出代價函數(shù)L(a,y)關(guān)于a的導(dǎo)數(shù)御雕,在編寫代碼時矢沿,你只需要用da 來表示(dL(a,y))/da 。?

通過微積分得到:


如果你不熟悉微積分饮笛,也不必太擔心咨察,我會列出本課程涉及的所有求導(dǎo)公式福青。那么如果你非常熟悉微積分巍举,我們鼓勵你主動推導(dǎo)前面介紹的代價函數(shù)的求導(dǎo)公式,使用微積分直接求出L(a,y)關(guān)于變量a的導(dǎo)數(shù)房官。如果你不太了解微積分脚翘,也不用太擔心。現(xiàn)在我們已經(jīng)計算出da氮凝,也就是最終輸出結(jié)果的導(dǎo)數(shù)。 現(xiàn)在可以再反向一步,在編寫Python代碼時交惯,你只需要用dz來表示代價函數(shù)L關(guān)于z 的導(dǎo)數(shù)dL/dz,也可以寫成(dL(a,y))/dz穿仪,這兩種寫法都是正確的席爽。 dL/dz=a-y 。?

因為

并且da/dz=a?(1-a)啊片, 而

因此將這兩項相乘


為了簡化推導(dǎo)過程只锻,假設(shè)n_x這個推導(dǎo)的過程就是我之前提到過的鏈式法則。

如果你對微積分熟悉紫谷,放心地去推導(dǎo)整個求導(dǎo)過程齐饮,如果不熟悉微積分,你只需要知道dz=(a-y)已經(jīng)計算好了笤昨。

現(xiàn)在進行最后一步反向推導(dǎo)祖驱,也就是計算w和b變化對代價函數(shù)L的影響,特別地瞒窒,可以用:


視頻中捺僻, dw_1 表示?L/(?w_1 )=x_1?dz,?dw_2 表示?L/(?w_2 )=x_2?dz崇裁, db=dz陵像。?

因此,關(guān)于單個樣本的梯度下降算法寇壳,你所需要做的就是如下的事情:?

使用公式dz=(a-y)計算dz醒颖,?

使用

dw_1=x_1?dz 計算dw_1,

dw_2=x_2?dz計算dw_2壳炎,

db=dz 來計算db泞歉,?

然后:

更新w_1=w_1-adw_1,

更新w_2=w_2-adw_2匿辩,

更新b=b-αdb腰耙。?

這就是關(guān)于單個樣本實例的梯度下降算法中參數(shù)更新一次的步驟。?


現(xiàn)在你已經(jīng)知道了怎樣計算導(dǎo)數(shù)铲球,并且實現(xiàn)針對單個訓(xùn)練樣本的邏輯回歸的梯度下降算法挺庞。但是,訓(xùn)練邏輯回歸模型不僅僅只有一個訓(xùn)練樣本稼病,而是有m個訓(xùn)練樣本的整個訓(xùn)練集选侨。

因此在下一個筆記中掖鱼,我們將這些思想應(yīng)用到整個訓(xùn)練樣本集中,而不僅僅只是單個樣本上援制。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末戏挡,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子晨仑,更是在濱河造成了極大的恐慌褐墅,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,366評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件洪己,死亡現(xiàn)場離奇詭異妥凳,居然都是意外死亡,警方通過查閱死者的電腦和手機答捕,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,521評論 3 395
  • 文/潘曉璐 我一進店門猾封,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人噪珊,你說我怎么就攤上這事∑肓” “怎么了痢站?”我有些...
    開封第一講書人閱讀 165,689評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長选酗。 經(jīng)常有香客問我阵难,道長,這世上最難降的妖魔是什么芒填? 我笑而不...
    開封第一講書人閱讀 58,925評論 1 295
  • 正文 為了忘掉前任呜叫,我火速辦了婚禮,結(jié)果婚禮上殿衰,老公的妹妹穿的比我還像新娘朱庆。我一直安慰自己,他們只是感情好闷祥,可當我...
    茶點故事閱讀 67,942評論 6 392
  • 文/花漫 我一把揭開白布娱颊。 她就那樣靜靜地躺著,像睡著了一般凯砍。 火紅的嫁衣襯著肌膚如雪箱硕。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,727評論 1 305
  • 那天悟衩,我揣著相機與錄音剧罩,去河邊找鬼。 笑死座泳,一個胖子當著我的面吹牛惠昔,可吹牛的內(nèi)容都是我干的幕与。 我是一名探鬼主播,決...
    沈念sama閱讀 40,447評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼舰罚,長吁一口氣:“原來是場噩夢啊……” “哼纽门!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起营罢,我...
    開封第一講書人閱讀 39,349評論 0 276
  • 序言:老撾萬榮一對情侶失蹤赏陵,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后饲漾,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體蝙搔,經(jīng)...
    沈念sama閱讀 45,820評論 1 317
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,990評論 3 337
  • 正文 我和宋清朗相戀三年考传,在試婚紗的時候發(fā)現(xiàn)自己被綠了吃型。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,127評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡僚楞,死狀恐怖勤晚,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情泉褐,我是刑警寧澤赐写,帶...
    沈念sama閱讀 35,812評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站膜赃,受9級特大地震影響挺邀,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜跳座,卻給世界環(huán)境...
    茶點故事閱讀 41,471評論 3 331
  • 文/蒙蒙 一端铛、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧疲眷,春花似錦禾蚕、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,017評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至美侦,卻和暖如春产舞,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背菠剩。 一陣腳步聲響...
    開封第一講書人閱讀 33,142評論 1 272
  • 我被黑心中介騙來泰國打工易猫, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人具壮。 一個月前我還...
    沈念sama閱讀 48,388評論 3 373
  • 正文 我出身青樓准颓,卻偏偏與公主長得像哈蝇,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子攘已,可洞房花燭夜當晚...
    茶點故事閱讀 45,066評論 2 355

推薦閱讀更多精彩內(nèi)容