Logistic Regression--機(jī)器學(xué)習(xí)

Logistic Regression(簡稱LR模型)是比較經(jīng)典的分類方法蚓再,雖然名字中有回歸兩個字只损,但主要是用來解決分類問題的判別概率問題硬猫。話不多說,直入正題。

LR模型的常規(guī)步驟:

1.構(gòu)造預(yù)測函數(shù)啸蜜;

2.構(gòu)造損失函數(shù);

3.損失函數(shù)最小辈挂,并求得參數(shù)\theta 衬横;

4.編程。

1. 構(gòu)造預(yù)測函數(shù)

我們知道终蒂,在處理線性模型時蜂林,函數(shù)方程為?

線性方程

在處理二分類問題時,我們希望能夠?qū)⑸鲜龊瘮?shù)的值映射到(0,1)中拇泣,這時我們需要一個階躍函數(shù):sigmoid函數(shù)噪叙。

函數(shù)表達(dá)式:

sigmoid函數(shù)
sigmoid函數(shù)圖像

觀察函數(shù)圖像,我們可以知道霉翔,該函數(shù)值域為(0,1)睁蕾。在處理二分類問題時,我們可以假設(shè)當(dāng)函數(shù)值大于等于0.5時债朵,該類別屬于1類子眶;小于0.5時,該類別屬于0類序芦。既然知道了預(yù)測函數(shù)臭杰,以及怎么處理預(yù)測值,下一步開始構(gòu)造損失函數(shù)吧谚中。

2. 構(gòu)造損失函數(shù)

sigmoid函數(shù)還有一重特殊的含義渴杆,那就是它本身表示的是該函數(shù)取1時的值,因此表示1宪塔,0時的概率分別為:

1/0函數(shù)值

LR模型磁奖,有一個特點,我們用1時的概率值蝌麸,除以0時的概率值点寥,可以得到\theta ^TX。我們把這個叫做一個事情的幾率来吩,指一個事情發(fā)生與不發(fā)生的概率比值敢辩。

有了1,0時的概率值弟疆,我們可以用來表示一個0戚长,1問題的計算概率綜合值了。

概率綜合值

這個公式怠苔,可以理解為同廉,當(dāng)y取1時,概率值為公式的前半部分;當(dāng)y取0時迫肖,概率值為公式后半部分锅劝。一個分類問題,我們可以理解為M重0蟆湖,1問題故爵。樣本概率最大時,我們可以得到最好的分類模型隅津。那怎么求這個M重問題的最大概率P呢诬垂?在大學(xué)上概率論時,對于這種問題伦仍,我們一般用最大似然函數(shù)來求極值结窘。首先,構(gòu)造似然函數(shù)充蓝,然后變形為對數(shù)似然函數(shù)形式隧枫,然后求導(dǎo),求極值點棺克。

似然函數(shù)
對數(shù)似然函數(shù)

當(dāng)時在實際分類問題中悠垛,對數(shù)似然函數(shù)是無法通過求導(dǎo)獲取解析解的。通常我們構(gòu)造損失函數(shù)娜谊,通過梯度下降來使損失函數(shù)最小來構(gòu)造分類器确买,以及獲取變量的值。梯度下降是用來求函數(shù)最小值的纱皆,故我們在似然函數(shù)前加負(fù)號來達(dá)到我們的目的湾趾。通常我們在實際操作時,還會對損失函數(shù)求平均派草。此時搀缠,損失函數(shù)為

損失函數(shù)

3. 損失函數(shù)最小,并求得參數(shù)\theta

使用梯度下降法來求解近迁。梯度下降法的求解過程為

梯度下降

梯度下降法的原理可以參考:https://zhuanlan.zhihu.com/p/52003491艺普。為了讓梯度下降進(jìn)行下去,下面需要通過損失函數(shù)對變量\theta 求導(dǎo)鉴竭。

求導(dǎo)

舉兩個例子歧譬,來說明一下梯度下降求解的過程。

1.單標(biāo)量:y(x)=x^2;對x求導(dǎo)為2x搏存。假設(shè)起點為x0=1,學(xué)習(xí)步長a = 0.4瑰步,那么

x1=x0 - a*(2*x0) = 1-0.4*2 = 0.2

x2 = x1 - a*(2*x1) = 0.2 - 0.4*0.4 = 0.04

...

2.多變量:y(x) = x1^2 + x2^2; 對x求導(dǎo)為<2*x1,2*x2>,此時表示一個向量璧眠。假設(shè)X0 = (1,3),a=0.1缩焦,那么读虏,

X1=(1,3) - 0.1*(2,6) = (0.8,2.4)

X2 = (0.8,2.4) - 0.1*(1.6,4.8) = (0.64,1.92)

...

現(xiàn)在我們東風(fēng)都不欠了,我們可以開始LR模型的編程了袁滥。

4. 編程

對于機(jī)器學(xué)習(xí)模型盖桥,我個人的看法最好是能夠自己把代碼寫一遍。剛開始呻拌,沒頭緒的時候葱轩,可以看看別人的代碼,理解后藐握,自己再寫,最好能夠采用矢量化編程的方式垃喊。我實在不知道怎么把代碼復(fù)制進(jìn)來猾普,格式還跟編譯器里面的一樣。寫到這里我查了一下本谜,需要把富文本改成MArkdown初家,還只對新建文本生效,好煩乌助,這次還是截圖吧溜在,以后的文章通通使用markdown的。

首先加載數(shù)據(jù)他托,在這里掖肋,我們讓x0=1,可以說將函數(shù)的常數(shù)項b變成了變量\theta \theta _{0} 了赏参。

加載數(shù)據(jù)

構(gòu)建預(yù)測函數(shù):

預(yù)測函數(shù)

梯度下降迭代求\theta

梯度下降

我設(shè)置的迭代20000次志笼,學(xué)習(xí)率為0.001,到最后極值已經(jīng)很小且下降已經(jīng)非常不明顯了把篓,我們可以認(rèn)為模型已經(jīng)達(dá)到比較好的收斂效果纫溃。由于我比較懶,沒有造測試數(shù)據(jù)韧掩,進(jìn)行測試紊浩,朋友們就將就一下吧。

訓(xùn)練
極值與變量值

邏輯回歸其實是一個淺層的神經(jīng)網(wǎng)絡(luò)疗锐,我們不妨用tensorflow來實現(xiàn)一下坊谁,展示一下逼格。我在看深度學(xué)習(xí)交叉熵部分時,上面有句話這么說思劳,交叉熵一般用在分類問題上敞临,表達(dá)的意思為預(yù)測輸入樣本屬于某一類的概率。其中Y代表真實值阶界,layer_1表示預(yù)測值虹钮。下面的代碼損失函數(shù)我用的就是交叉熵。

tensorflow實現(xiàn)LR

好了膘融,以上就是關(guān)于LR模型的介紹芙粱,以及有關(guān)LR模型的編程。

本文Github:https://github.com/NLPxiaoxu/Easy_Machine-Learning

參考:

https://blog.csdn.net/qq_38923076/article/details/82925183

https://segmentfault.com/a/1190000009954640

李航 《統(tǒng)計學(xué)習(xí)方法》

李金洪等 《深度學(xué)習(xí)之TensorFlow入門氧映、原理與進(jìn)階實戰(zhàn)》

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末春畔,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子岛都,更是在濱河造成了極大的恐慌律姨,老刑警劉巖,帶你破解...
    沈念sama閱讀 222,000評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件臼疫,死亡現(xiàn)場離奇詭異择份,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)烫堤,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,745評論 3 399
  • 文/潘曉璐 我一進(jìn)店門荣赶,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人鸽斟,你說我怎么就攤上這事拔创。” “怎么了富蓄?”我有些...
    開封第一講書人閱讀 168,561評論 0 360
  • 文/不壞的土叔 我叫張陵剩燥,是天一觀的道長。 經(jīng)常有香客問我格粪,道長躏吊,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,782評論 1 298
  • 正文 為了忘掉前任帐萎,我火速辦了婚禮比伏,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘疆导。我一直安慰自己赁项,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 68,798評論 6 397
  • 文/花漫 我一把揭開白布澈段。 她就那樣靜靜地躺著悠菜,像睡著了一般。 火紅的嫁衣襯著肌膚如雪败富。 梳的紋絲不亂的頭發(fā)上悔醋,一...
    開封第一講書人閱讀 52,394評論 1 310
  • 那天,我揣著相機(jī)與錄音兽叮,去河邊找鬼芬骄。 笑死猾愿,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的账阻。 我是一名探鬼主播蒂秘,決...
    沈念sama閱讀 40,952評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼淘太!你這毒婦竟也來了姻僧?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,852評論 0 276
  • 序言:老撾萬榮一對情侶失蹤蒲牧,失蹤者是張志新(化名)和其女友劉穎撇贺,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體冰抢,經(jīng)...
    沈念sama閱讀 46,409評論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡显熏,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,483評論 3 341
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了晒屎。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,615評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡缓升,死狀恐怖鼓鲁,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情港谊,我是刑警寧澤骇吭,帶...
    沈念sama閱讀 36,303評論 5 350
  • 正文 年R本政府宣布,位于F島的核電站歧寺,受9級特大地震影響燥狰,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜斜筐,卻給世界環(huán)境...
    茶點故事閱讀 41,979評論 3 334
  • 文/蒙蒙 一龙致、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧顷链,春花似錦目代、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,470評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至煞抬,卻和暖如春霜大,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背革答。 一陣腳步聲響...
    開封第一講書人閱讀 33,571評論 1 272
  • 我被黑心中介騙來泰國打工战坤, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留曙强,地道東北人。 一個月前我還...
    沈念sama閱讀 49,041評論 3 377
  • 正文 我出身青樓湖笨,卻偏偏與公主長得像旗扑,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子慈省,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,630評論 2 359

推薦閱讀更多精彩內(nèi)容