Logistic 回歸

??Logistic回歸 為概率型非線性回歸模型月培,它是一個 分類算法谷暮,它可以處理二元分類以及多元分類蔑匣。雖然它名字里面有 回歸 兩個字劣欢,卻不是一個回歸算法。

1. 從線性回歸到邏輯回歸

??線性回歸的模型可簡寫為:
y = \omega^Tx + b此時y是連續(xù)的裁良,所以是回歸模型凿将。假如樣本所對應(yīng)的輸出是在指數(shù)尺度上變化,那我們可以將真實值的對數(shù)作為我們回歸模型逼近的目標价脾,即:
lny = \omega^Tx + b這就是對數(shù)線性回歸丸相,其本質(zhì)上是求解輸入空間到輸出空間的非線性函數(shù)映射,這里的對數(shù)函數(shù)只是起到了將線性回歸模型的預(yù)測值跟真實標簽聯(lián)系起來的作用彼棍。更一般性灭忠,考慮單調(diào)可微函數(shù)g(\cdot),令y = g^{-1}( \omega^Tx + b)這樣得到的模型稱為廣義線性模型座硕,很顯然對數(shù)線性回歸廣義線性模型g(\cdot) = ln(\cdot)的特例弛作。

2. 二元邏輯回歸模型

??上面提到對線性回歸的結(jié)果做一個在函數(shù)g上的轉(zhuǎn)換,如果令g(y)的值在某個實數(shù)區(qū)間的時候是類別A华匾,在另一個實數(shù)區(qū)間的時候是類別B映琳,以此類推机隙,就得到了一個分類模型。如果結(jié)果的類別只有兩種萨西,那么就是一個二元分類模型了有鹿。邏輯回歸的出發(fā)點就是從這來的。
??這個函數(shù)g在邏輯回歸中我們一般取為sigmoid函數(shù)谎脯,形式如下:g(z) = \frac{1}{1+e^{-z}}


它有一個非常好的性質(zhì)葱跋,即當(dāng)z趨于正無窮時,??(??)趨于1源梭,而當(dāng)z趨于負無窮時娱俺,??(??)趨于0,并且在點時斜率最大废麻,梯度更新最快荠卷,這非常適合于我們的分類概率模型。另外烛愧,它還有一個很好的導(dǎo)數(shù)性質(zhì):
如果我們令??(??)中的z為:油宜,這樣就得到了二元邏輯回歸模型的一般形式:其中為樣本輸入,為模型輸出怜姿,可以理解為某一分類的概率大小慎冤。而為分類模型的要求出的模型參數(shù)。對于模型輸出社牲,讓它和我們的二元樣本輸出(假設(shè)為0和1)有這樣的對應(yīng)關(guān)系粪薛,如果 ,即, 則為1搏恤。如果违寿,即, 則為0。是臨界情況熟空,此時為藤巢, 從邏輯回歸模型本身無法確定分類。

3. 二元邏輯回歸的損失函數(shù)

??線性回歸的損失函數(shù)使用 MSE 來定義損失函數(shù)息罗。但是邏輯回歸不是連續(xù)的掂咒,自然MSE就用不上了。不過我們可以用 最大似然法 來推導(dǎo)出我們的損失函數(shù)迈喉。
假設(shè)我們的樣本輸出是0或者1兩類绍刮。那么對于一個樣本有:p(y=1|x,\theta) = h_\theta(x)則,p(y=0|x,\theta) = 1 - h_\theta(x) 把這兩個式子寫成一個式子挨摸,就是:p(y|x,\theta) = h_\theta(x)^y(1- h_\theta(x))^{(1-y)}其中y的取值只能是0或者1孩革。
得到了y的概率分布函數(shù)表達式,因為各個觀測樣本之間 相互獨立得运,那么它們的聯(lián)合分布為各邊緣分布的乘積膝蜈。得到似然函數(shù)為:
L(\theta) = \prod_{i=1}^mh_\theta(x^{(i)})^{y^{(i)}}(1- h_\theta(x^{(i)}))^{(1-y^{(i)})}其中m為樣本的個數(shù)锅移。
我們就可以用似然函數(shù)最大化來求解我們需要的模型系數(shù)\theta。為了方便求解饱搏,這里我們用對數(shù)似然函數(shù)最大化非剃,對數(shù)似然函數(shù)取反即為我們的損失函數(shù)l(\theta)。對似然函數(shù)對數(shù)化取反的表達式推沸,即損失函數(shù)表達式為:l(\theta) = -ln(L(\theta)) = -\sum_{i=1}^m(y^{(i)}log(h_\theta(x^{(i)})) + (1-y^{(i)})log(1-h_\theta(x^{(i)})))

4. l(\theta)損失函數(shù)的優(yōu)化方法

??對于二元邏輯回歸的損失函數(shù)極小化备绽,有比較多的方法,最常見的有梯度下降法坤学,坐標軸下降法疯坤,牛頓法等报慕。這里推導(dǎo)出梯度下降法中??每次迭代的公式深浮。
求邏輯回歸模型f(θ),等價于:\theta^* = argmin_{\theta}l(\theta)采用梯度下降法:\frac{\partial(l(\theta))}{\partial\theta_{i}} = (\frac{y^{(i)}}{h_\theta(x^{(i)})}-\frac{1-y^{(i)}}{1-h_\theta(x^{(i)})})\frac{\partial h_\theta(x^{(i)})}{\theta_i} = \frac{y^{(i)}-y^{(i)}h_\theta(x^{(i)})-h_\theta(x^{(i)})+y^{(i)}h_\theta(x^{(i)})}{h_\theta(x^{(i)})(1-h_\theta(x^{(i)}))}\frac{\partial h_\theta(x^{(i)})}{\partial(\theta^Tx^(i)+b)}\frac{\partial(\theta^Tx^(i)+b)}{\partial \theta_i}
\frac{\partial(l(\theta))}{\partial\theta_{i}} = \frac{y^{(i)}-h_\theta(x^{(i)})}{h_\theta(x^{(i)})(1-h_\theta(x^{(i)}))}{h_\theta(x^{(i)})(1-h_\theta(x^{(i)}))}\frac{\partial(\theta^Tx^{(i)}+b)}{\partial \theta_i} = (y^{(i)}-h_\theta(x^{(i)}))x^{x(i)}
中間用到了g^\prime(z) = g(z)*(1-g(z))
從而迭代θ至收斂即可:\theta_i := \theta_i + \alpha(y^{(i)}-h_\theta(x^{(i)}))x^{(i)}其中眠冈,??為梯度下降法的步長飞苇。實踐中,我們一般不用操心優(yōu)化方法蜗顽,大部分機器學(xué)習(xí)庫都內(nèi)置了各種邏輯回歸的優(yōu)化方法布卡,不過了解至少一種優(yōu)化方法還是有必要的。

5. 二元邏輯回歸的正則化

??邏輯回歸也會面臨過擬合問題雇盖,所以我們也要考慮正則化忿等。常見的有L1正則化和L2正則化。
邏輯回歸的L1正則化的損失函數(shù)表達式相比普通的邏輯回歸損失函數(shù)崔挖,增加了L1的范數(shù)做作為懲罰贸街,超參數(shù)??作為懲罰系數(shù),調(diào)節(jié)懲罰項的大小狸相。
二元邏輯回歸的L1正則化損失函數(shù)表達式如下:
l(\theta) = -\sum_{i=1}^m(y^{(i)}log(h_\theta(x^{(i)})) + (1-y^{(i)})log(1-h_\theta(x^{(i)}))) + \alpha||\theta||_1其中||??||1為??的L1范數(shù)薛匪。
邏輯回歸的L1正則化損失函數(shù)的優(yōu)化方法常用的有坐標軸下降法和最小角回歸法。
L1正則相當(dāng)于加入拉普拉斯先驗脓鹃。
L2正則相當(dāng)于加入高斯先驗逸尖。
二元邏輯回歸的L2正則化損失函數(shù)表達式如下:
l(\theta) = -\sum_{i=1}^m(y^{(i)}log(h_\theta(x^{(i)})) + (1-y^{(i)})log(1-h_\theta(x^{(i)}))) + \frac{1}{2}\alpha||\theta||_2^2其中||??||2為??的L2范數(shù)。
邏輯回歸的L2正則化損失函數(shù)的優(yōu)化方法和普通的邏輯回歸類似瘸右。

6. 二元邏輯回歸的推廣:多元邏輯回歸

??前面幾節(jié)我們的邏輯回歸的模型和損失函數(shù)都局限于二元邏輯回歸娇跟,實際上二元邏輯回歸的模型和損失函數(shù)很容易推廣到多元邏輯回歸。比如總是認為某種類型為正值太颤,其余為0值苞俘,這種方法為最常用的one-vs-rest,簡稱OvR.
??另一種多元邏輯回歸的方法是Many-vs-Many(MvM)栋齿,它會選擇一部分類別的樣本和另一部分類別的樣本來做邏輯回歸二分類苗胀。最常用的是One-Vs-One(OvO)襟诸。OvO是MvM的特例。每次我們選擇兩類樣本來做二元邏輯回歸基协。
這里只介紹多元邏輯回歸的softmax回歸的一種特例推導(dǎo):
首先回顧下二元邏輯回歸歌亲。
p(y=1|x,\theta) = h_\theta(x) = \frac{1}{1+e^{-(\theta^Tx+b)}} = \frac{e^{(\theta^Tx+b)}}{1+e^{\theta^Tx+b}}
p(y=0|x,\theta) = 1 - h_\theta(x) = \frac{1}{1+e^{\theta^Tx+b}}其中y只能取到0和1。則有:ln\frac{p(y=1|x,\theta)}{p(y=0|x,\theta)} = \theta^Tx+b如果我們要推廣到多元邏輯回歸澜驮,則模型要稍微做下擴展陷揪。
我們假設(shè)是K元分類模型,即樣本輸出y的取值為1,2,...,K.

根據(jù)二元邏輯回歸的經(jīng)驗,我們有:
ln\frac{p(y=1|x,\theta)}{p(y=K|x,\theta)} = \theta_1^Tx+b_1
ln\frac{p(y=2|x,\theta)}{p(y=K|x,\theta)} = \theta_2^Tx+b_2
....
ln\frac{p(y=K-1|x,\theta)}{p(y=K|x,\theta)} = \theta_{K-1}^Tx+b_{K-1}
上面有K-1個方程杂穷。
加上概率之和為1的方程如下:
\sum_{i=1}^Kp(y=i|x,\theta) = 1
從而得到K個方程悍缠,里面有K個邏輯回歸的概率分布。

解出這個K元一次方程組耐量,得到K元邏輯回歸的概率分布如下:
p(y=k|x,\theta) = \frac{e^{\theta_{k}^Tx+b_k}}{1+\sum_{i=1}^{K-1}e^{\theta_{k}^Tx+b_k}}, k=1,2,3,...,K-1
p(y=K|x,\theta) = \frac{1}{1+\sum_{i=1}^{K-1}e^{\theta_{k}^Tx+b_k}}
多元邏輯回歸的損失函數(shù)推導(dǎo)以及優(yōu)化方法和二元邏輯回歸類似飞蚓。

小結(jié):Logistic回歸尤其是二元Logistic回歸是非常常見的模型,訓(xùn)練速度很快廊蜒,雖然使用起來沒有SVM那么占主流趴拧,但是解決普通的分類問題是足夠了,訓(xùn)練速度也比起SVM要快不少山叮,適合分布式訓(xùn)練著榴,適用于離散特征。如果想要理解機器學(xué)習(xí)的所有分類算法屁倔,那么第一個應(yīng)該學(xué)習(xí)的分類算法個人覺得應(yīng)該是邏輯回歸脑又。理解了邏輯回歸,其他的分類算法再學(xué)習(xí)起來應(yīng)該沒有那么難了锐借。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末问麸,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子瞎饲,更是在濱河造成了極大的恐慌口叙,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,427評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件嗅战,死亡現(xiàn)場離奇詭異妄田,居然都是意外死亡,警方通過查閱死者的電腦和手機驮捍,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,551評論 3 395
  • 文/潘曉璐 我一進店門疟呐,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人东且,你說我怎么就攤上這事启具。” “怎么了珊泳?”我有些...
    開封第一講書人閱讀 165,747評論 0 356
  • 文/不壞的土叔 我叫張陵鲁冯,是天一觀的道長拷沸。 經(jīng)常有香客問我,道長薯演,這世上最難降的妖魔是什么撞芍? 我笑而不...
    開封第一講書人閱讀 58,939評論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮跨扮,結(jié)果婚禮上序无,老公的妹妹穿的比我還像新娘。我一直安慰自己衡创,他們只是感情好帝嗡,可當(dāng)我...
    茶點故事閱讀 67,955評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著璃氢,像睡著了一般哟玷。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上拔莱,一...
    開封第一講書人閱讀 51,737評論 1 305
  • 那天碗降,我揣著相機與錄音隘竭,去河邊找鬼塘秦。 笑死,一個胖子當(dāng)著我的面吹牛动看,可吹牛的內(nèi)容都是我干的尊剔。 我是一名探鬼主播,決...
    沈念sama閱讀 40,448評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼菱皆,長吁一口氣:“原來是場噩夢啊……” “哼须误!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起仇轻,我...
    開封第一講書人閱讀 39,352評論 0 276
  • 序言:老撾萬榮一對情侶失蹤京痢,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后篷店,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體祭椰,經(jīng)...
    沈念sama閱讀 45,834評論 1 317
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,992評論 3 338
  • 正文 我和宋清朗相戀三年疲陕,在試婚紗的時候發(fā)現(xiàn)自己被綠了方淤。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,133評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡蹄殃,死狀恐怖携茂,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情诅岩,我是刑警寧澤讳苦,帶...
    沈念sama閱讀 35,815評論 5 346
  • 正文 年R本政府宣布带膜,位于F島的核電站,受9級特大地震影響鸳谜,放射性物質(zhì)發(fā)生泄漏钱慢。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,477評論 3 331
  • 文/蒙蒙 一卿堂、第九天 我趴在偏房一處隱蔽的房頂上張望束莫。 院中可真熱鬧,春花似錦草描、人聲如沸览绿。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,022評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽饿敲。三九已至,卻和暖如春逛绵,著一層夾襖步出監(jiān)牢的瞬間怀各,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,147評論 1 272
  • 我被黑心中介騙來泰國打工术浪, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留瓢对,地道東北人。 一個月前我還...
    沈念sama閱讀 48,398評論 3 373
  • 正文 我出身青樓胰苏,卻偏偏與公主長得像硕蛹,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子硕并,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,077評論 2 355

推薦閱讀更多精彩內(nèi)容