吳恩達(dá)機(jī)器學(xué)習(xí)筆記(2)

一.邏輯回歸

1.什么是邏輯回歸拷姿?

邏輯回歸是一種預(yù)測變量y為離散值0或1情況下的分類問題惭载,在邏輯回歸中,假設(shè)函數(shù)0\leq h_\theta(x)\leq1跌前。

2.模型描述

\begin{cases} 假設(shè)函數(shù)(hypothesis):h_\theta(x)=g(\theta^Tx)=\frac{1}{1+e^{-\theta^Tx}}.\\ 參數(shù)(parameters):\theta_0,\theta_1,...,\theta_n\\ 損失函數(shù)(cost function):J(\theta)=-\frac{1}{m}[\sum_{i=1}^{m}y^{(i)}logh_\theta(x^{(i)})+(1-y^{(i)})log(1-h_\theta(x^{(i)})]\\ 目標(biāo)(goal):min_{\theta} J(\theta) \end{cases}在假設(shè)函數(shù)中棕兼,g(z)=\frac{1}{1+e^{-z}}z為實數(shù)抵乓,g(z)為Sigmoid函數(shù)伴挚,也叫Logistic函數(shù)靶衍。
模型解釋:h_\theta(x)=p(y=1|x;\theta),即就是對一個輸入x茎芋,y=1的概率估計颅眶。
損失函數(shù)的理解:所謂最大似然估計,就是我們想知道哪套參數(shù)組合對應(yīng)的曲線最可能擬合我們觀測到的數(shù)據(jù)田弥,也就是該套參數(shù)擬合出觀測數(shù)據(jù)的概率最大涛酗,而損失函數(shù)的要求是預(yù)測結(jié)果與真實結(jié)果越相近,函數(shù)值越小偷厦,也就是參數(shù)越能更好的擬合數(shù)據(jù)商叹,損失函數(shù)的值越小,所以損失函數(shù)即就是最大似然函數(shù)的相反數(shù)只泼。具體損失函數(shù)的推導(dǎo)可以參考鏈接剖笙。

3.決策邊界

已知h_\theta(x)表示的是對于一個輸入xy=1的概率估計请唱,則當(dāng)h_\theta(x)\geq0.5時弥咪,y=1的可能性更大;當(dāng)h_\theta(x)<0.5時十绑,y=0的可能性更大聚至。

邏輯回歸假設(shè)函數(shù)圖像

如上圖所示,z\geq0時本橙,g(z)\geq0.5扳躬;z<0時,g(z)<0.5甚亭。即h_\theta(x)=g(\theta^Tx)坦报,\theta^Tx\geq0時,h_\theta(x)\geq0.5狂鞋,則y=1;\theta^Tx<0時,h_\theta(x)<0.5潜的,則y=0骚揍。
我們把\theta^Tx=0叫做決策邊界,它是假設(shè)函數(shù)的屬性啰挪,決定于參數(shù)\theta信不,有明確的\theta,即可確定決策邊界亡呵,不需要繪制訓(xùn)練集來確定邊界抽活。

4.邏輯回歸的梯度下降法

更新公式:\theta_j:=\theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta)=\theta_j-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}}
具體推導(dǎo)過程如下:

更新公式推導(dǎo)

5.高級優(yōu)化

除梯度下降法外,還有一些比梯度下降更快的高級優(yōu)化算法锰什,比如共軛梯度法下硕、BFGS丁逝、L-BFGS等,這些方法不需要手動選擇學(xué)習(xí)率梭姓,并且收斂速度較快霜幼。具體算法流程在此不具體展開,可自行學(xué)習(xí)誉尖。

6.多元分類

當(dāng)預(yù)測變量y不只兩類時罪既,例如:y=1,y=2,y=3,可將其分成三個獨立的二分類問題铡恕,創(chuàng)建三個偽訓(xùn)練集琢感,擬合出三個分類器h_\theta^{(i)}(x)=P(y=i|x;\theta),(i=1,2,3),然后給一個新的輸入值x探熔,則其應(yīng)屬于max_ih_\theta^{(i)}(x)的第i類驹针。

二.正則化

1.過擬合問題

什么是過擬合問題?
算法具有“高方差”祭刚。如果擬合一個高階多項式牌捷,假設(shè)函數(shù)能擬合幾乎所有數(shù)據(jù),無法泛化到新的樣本中涡驮,則稱該模型過擬合暗甥。(泛化:一個假設(shè)模型應(yīng)用到新樣本的能力)
過擬合發(fā)生時,怎樣解決捉捅?
(1)盡量減少選取變量的數(shù)量:人工檢查變量清單撤防,確定哪些變量保留,哪些變量舍棄棒口;算法自動選擇哪些變量保留寄月,哪些變量舍棄。缺點是會丟失一部分信息无牵。
(2)正則化:保留全部特征變量漾肮,但減少量級或參數(shù)\theta_j的大小。

2.正則化損失函數(shù)

正則化損失函數(shù)是給原本的損失函數(shù)加一個懲罰項茎毁,相當(dāng)于簡化模型克懊,使參數(shù)盡量小。

3.線性回歸的正則化

損失函數(shù):J(\theta)=\frac{1}{2m}[\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})^2}+\lambda\sum_{j=1}^{n}{\theta_j^2}]
其中\lambda叫做正則化參數(shù)七蜘,它的作用是更好地擬合數(shù)據(jù)和保持參數(shù)盡量小谭溉。
梯度下降更新公式:\theta_0:=\theta_0-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})x_0^{(i)}}
\theta_j:=\theta_j(1-\alpha\frac{\lambda}{m})-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}}(j=1,2,...,n)
正規(guī)方程:如果\lambda>0,則\theta=(X^TX+\lambda\left[ \begin{matrix} 0 & 0 & 0 & ... & 0 \\ 0 & 1 & 0 & ... & 0 \\ 0 & 0 & 1 & ... & 0 \\ ... & ... & ... & ... & ...\\ 0 & 0 & 0 & ... & 1 \end{matrix} \right])^{-1}X^Ty橡卤,該方程可以解決X^TX不可逆的問題扮念。

4.邏輯回歸的正則化

損失函數(shù):J(\theta)=-\frac{1}{m}[\sum_{i=1}^{m}y^{(i)}logh_\theta(x^{(i)})+(1-y^{(i)})log(1-h_\theta(x^{(i)})]+\frac{\lambda}{2m}\sum_{j=1}^{n}{\theta_j^2}
梯度下降更新公式:\theta_0:=\theta_0-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})x_0^{(i)}}
\theta_j:=\theta_j(1-\alpha\frac{\lambda}{m})-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}}(j=1,2,...,n)

三.總結(jié)

這兩周學(xué)習(xí)了吳恩達(dá)機(jī)器學(xué)習(xí)的邏輯回歸和正則化部分的內(nèi)容,整體比較簡單碧库,主要理解了一下邏輯回歸的損失函數(shù)以及梯度下降法更新公式的推導(dǎo)柜与。感覺把統(tǒng)計和機(jī)器學(xué)習(xí)結(jié)合起來巧勤,更容易理解學(xué)習(xí)的內(nèi)容。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末旅挤,一起剝皮案震驚了整個濱河市踢关,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌粘茄,老刑警劉巖签舞,帶你破解...
    沈念sama閱讀 217,084評論 6 503
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異柒瓣,居然都是意外死亡儒搭,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,623評論 3 392
  • 文/潘曉璐 我一進(jìn)店門芙贫,熙熙樓的掌柜王于貴愁眉苦臉地迎上來搂鲫,“玉大人,你說我怎么就攤上這事磺平』耆裕” “怎么了?”我有些...
    開封第一講書人閱讀 163,450評論 0 353
  • 文/不壞的土叔 我叫張陵拣挪,是天一觀的道長擦酌。 經(jīng)常有香客問我,道長菠劝,這世上最難降的妖魔是什么赊舶? 我笑而不...
    開封第一講書人閱讀 58,322評論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮赶诊,結(jié)果婚禮上笼平,老公的妹妹穿的比我還像新娘。我一直安慰自己舔痪,他們只是感情好寓调,可當(dāng)我...
    茶點故事閱讀 67,370評論 6 390
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著锄码,像睡著了一般捶牢。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上巍耗,一...
    開封第一講書人閱讀 51,274評論 1 300
  • 那天,我揣著相機(jī)與錄音渐排,去河邊找鬼炬太。 笑死,一個胖子當(dāng)著我的面吹牛驯耻,可吹牛的內(nèi)容都是我干的亲族。 我是一名探鬼主播炒考,決...
    沈念sama閱讀 40,126評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼霎迫!你這毒婦竟也來了斋枢?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 38,980評論 0 275
  • 序言:老撾萬榮一對情侶失蹤知给,失蹤者是張志新(化名)和其女友劉穎瓤帚,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體涩赢,經(jīng)...
    沈念sama閱讀 45,414評論 1 313
  • 正文 獨居荒郊野嶺守林人離奇死亡戈次,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,599評論 3 334
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了筒扒。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片怯邪。...
    茶點故事閱讀 39,773評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖花墩,靈堂內(nèi)的尸體忽然破棺而出悬秉,到底是詐尸還是另有隱情,我是刑警寧澤冰蘑,帶...
    沈念sama閱讀 35,470評論 5 344
  • 正文 年R本政府宣布和泌,位于F島的核電站,受9級特大地震影響懂缕,放射性物質(zhì)發(fā)生泄漏允跑。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,080評論 3 327
  • 文/蒙蒙 一搪柑、第九天 我趴在偏房一處隱蔽的房頂上張望聋丝。 院中可真熱鬧,春花似錦工碾、人聲如沸弱睦。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,713評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽况木。三九已至,卻和暖如春旬迹,著一層夾襖步出監(jiān)牢的瞬間火惊,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,852評論 1 269
  • 我被黑心中介騙來泰國打工奔垦, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留屹耐,地道東北人。 一個月前我還...
    沈念sama閱讀 47,865評論 2 370
  • 正文 我出身青樓椿猎,卻偏偏與公主長得像惶岭,于是被迫代替她去往敵國和親寿弱。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,689評論 2 354

推薦閱讀更多精彩內(nèi)容

  • 今天感恩節(jié)哎按灶,感謝一直在我身邊的親朋好友症革。感恩相遇!感恩不離不棄鸯旁。 中午開了第一次的黨會噪矛,身份的轉(zhuǎn)變要...
    迷月閃星情閱讀 10,564評論 0 11
  • 彩排完,天已黑
    劉凱書法閱讀 4,217評論 1 3
  • 表情是什么羡亩,我認(rèn)為表情就是表現(xiàn)出來的情緒摩疑。表情可以傳達(dá)很多信息。高興了當(dāng)然就笑了畏铆,難過就哭了雷袋。兩者是相互影響密不可...
    Persistenc_6aea閱讀 124,997評論 2 7