吳恩達deeplearning.ai筆記神經(jīng)網(wǎng)絡和深度學習——神經(jīng)網(wǎng)絡基礎

1.二分類問題

  • Logistic Regression就是一個二分類問題潜的;
  • 二分類問題的目標就是輸入一個數(shù)據(jù)集要销,通過學習得到一個分類器,預測得出數(shù)據(jù)是0或是1夏块,也就是視頻中所說疏咐,輸入64\times64\times3的像素矩陣,輸出圖片得到是貓(y=1)或非貓(y=0)脐供。

Notation符號說明

  • 樣本:(x,y)浑塞,訓練樣本包含m個;
  • 輸入數(shù)據(jù):X\in \mathbb{R}^{n_x\times m}政己;
  • 輸出:y \in \lbrace 0,1 \rbrace酌壕,目標值屬于0,1分類歇由;

2. Logistic Regresion

邏輯回歸中卵牍,預測值用概率形式表示:\hat h=P(y=1|x),0\leq\hat h\leq 1表示輸出值為1的概率沦泌;
然而一般情況下糊昙,預測值常用線性函數(shù)表示:\hat y=w^Tx+b,此時谢谦,\hat y遠大于1释牺,故引入sigmoid函數(shù),此時回挽,預測值:\hat y=\sigma(w^Tx+b) \sigma (z)=\frac{1}{1+e^{-z}}


由圖看出没咙,
z\to \infty,\sigma(z)\to 1

注意:

  • \sigma'(z)=\sigma(z)(1-\sigma(z))
  • 梯度消失問題千劈?(梯度下降公式不斷更新祭刚,sigmoid函數(shù)導數(shù)越來越小,每次迭代步伐越來越小,最終趨近于0)

3. 代價函數(shù)與損失函數(shù)(Cost function&Loss function)

Loss function:

一般的損失函數(shù)用平方錯誤來表示:L(\hat y,y)=\frac{1}{2}(\hat y-y)^2然而這是一個非凸函數(shù)(non convex)涡驮,只能找到局部最優(yōu)解暗甥,不能使用梯度下降法,無法找到全局最優(yōu)解遮怜。因此淋袖,對于logistic regression來說,要選用凸函數(shù)锯梁。

loss function of logistic regression:

L(\hat y,y)=-(ylog\hat y+(1-y)log(1-\hat y))

  • y=1,\hat y \to 1(預測效果越好)即碗,y=0,\hat y \to 0(預測效果越好)
  • 這是針對單個樣本點的損失函數(shù),我們的目標是最小化單個樣本點的損失函數(shù)陌凳。

Cost function:

全部訓練數(shù)據(jù)集的Loss function總和的平均值即為訓練集的代價函數(shù)(Cost function):J(w,b)=\frac{1}{m}\sum_{i=1}^m L(\hat y^{(i)},y^{(i)}) =-\frac{1}{m} \sum_{i=1}^m (y^{(i)}log\hat y^{(i)}+(1-y^{(i)})log(1-\hat y^{(i)}))

  • 迭代計算w和b的值剥懒,minimizeJ(w,b).

4. Logistic Regression的梯度下降法Gradient Descent

  • 目標:找全局最小值;
  • 算法:w:=w-\alpha \frac{\partial{J(w,b)}}{\partial w}合敦,\alpha:learning rate. b同理

5. m個訓練樣本的梯度下降

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末初橘,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子充岛,更是在濱河造成了極大的恐慌保檐,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,036評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件崔梗,死亡現(xiàn)場離奇詭異夜只,居然都是意外死亡,警方通過查閱死者的電腦和手機蒜魄,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,046評論 3 395
  • 文/潘曉璐 我一進店門扔亥,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人谈为,你說我怎么就攤上這事旅挤。” “怎么了伞鲫?”我有些...
    開封第一講書人閱讀 164,411評論 0 354
  • 文/不壞的土叔 我叫張陵粘茄,是天一觀的道長。 經(jīng)常有香客問我榔昔,道長驹闰,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,622評論 1 293
  • 正文 為了忘掉前任撒会,我火速辦了婚禮,結(jié)果婚禮上师妙,老公的妹妹穿的比我還像新娘诵肛。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 67,661評論 6 392
  • 文/花漫 我一把揭開白布怔檩。 她就那樣靜靜地躺著褪秀,像睡著了一般。 火紅的嫁衣襯著肌膚如雪薛训。 梳的紋絲不亂的頭發(fā)上媒吗,一...
    開封第一講書人閱讀 51,521評論 1 304
  • 那天,我揣著相機與錄音乙埃,去河邊找鬼闸英。 笑死,一個胖子當著我的面吹牛介袜,可吹牛的內(nèi)容都是我干的甫何。 我是一名探鬼主播,決...
    沈念sama閱讀 40,288評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼遇伞,長吁一口氣:“原來是場噩夢啊……” “哼辙喂!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起鸠珠,我...
    開封第一講書人閱讀 39,200評論 0 276
  • 序言:老撾萬榮一對情侶失蹤巍耗,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后渐排,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體炬太,經(jīng)...
    沈念sama閱讀 45,644評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,837評論 3 336
  • 正文 我和宋清朗相戀三年飞盆,在試婚紗的時候發(fā)現(xiàn)自己被綠了娄琉。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,953評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡吓歇,死狀恐怖孽水,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情城看,我是刑警寧澤女气,帶...
    沈念sama閱讀 35,673評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站测柠,受9級特大地震影響炼鞠,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜轰胁,卻給世界環(huán)境...
    茶點故事閱讀 41,281評論 3 329
  • 文/蒙蒙 一谒主、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧赃阀,春花似錦霎肯、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,889評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽泽篮。三九已至输玷,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背莽使。 一陣腳步聲響...
    開封第一講書人閱讀 33,011評論 1 269
  • 我被黑心中介騙來泰國打工紊馏, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留薄腻,地道東北人编振。 一個月前我還...
    沈念sama閱讀 48,119評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像拌屏,于是被迫代替她去往敵國和親潮针。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 44,901評論 2 355

推薦閱讀更多精彩內(nèi)容