從0開始實(shí)現(xiàn)邏輯回歸算法(LogicRegression)

從0開始實(shí)現(xiàn)邏輯回歸算法(LogicRegression)

邏輯回歸(LR)算法是一個比較常見的二元分類算法柔昼,通常只預(yù)測正例的概率漱办,如給定一個樣本x即供,預(yù)測出來的結(jié)果為0.4,那么表示方法就是p(y=1|x)=0.4尼啡,也就是說在給定樣本x的情況下,通過LR預(yù)測出來正例的概率為0.4询微,反之,為負(fù)例的概率為0.6崖瞭,即p(y=0|x)=0.6。

邏輯回歸的數(shù)學(xué)表示為Y_hat=sigmoid(X*W+b)撑毛,函數(shù)原型和線性模型很相似书聚,實(shí)質(zhì)上LR本質(zhì)上是一個線性模型,可以從廣義線性模型和伯努利分布進(jìn)行推導(dǎo)這個模型藻雌,本文就不做推導(dǎo)了雌续。其實(shí)有一個問題一直擺在很多初學(xué)者的面前,為啥公式是這個樣子的胯杭,為啥不是其它的驯杜。其實(shí),機(jī)器學(xué)習(xí)的目標(biāo)是什么做个,是找到一個參數(shù)鸽心,我們輸入樣本,輸出結(jié)果居暖。那么最簡單的表示是通過一個式子來表示我們的這個過程顽频。理論上,總有一個公式來擬合我們的數(shù)據(jù)太闺,比如牛頓定律F=ma糯景,其實(shí)也可以理解為一個模型,參數(shù)為a省骂,質(zhì)量m為樣本莺奸,那么受到的力為F,F(xiàn)就是我們的目標(biāo)冀宴。LR這個公式也可以這么理解灭贷。

想要實(shí)現(xiàn)LR并不難,主要要理解cost function和梯度的算法略贮。如果用tensorflow這類的框架甚疟,甚至不用求梯度仗岖,只用給出cost function即可。下面我將給出LR的實(shí)現(xiàn)代碼览妖,這個代碼是可以正常工作的轧拄,main函數(shù)就是用iris數(shù)據(jù)集進(jìn)行的測試。

from sklearn import datasets
from sklearn import metrics

import matplotlib.pyplot as plt
import numpy as np


def softmax(X):
    return (np.exp(X) / (np.exp(X).sum(axis=0)))


def sigmod(X):
    return (1) / (1 + np.exp(-X))


def score(W, b, X_test, Y_test):
    m = X_test.shape[0]
    Y_ = predict(W, b, X_test)
    Y2 = np.array([1 if i > 0.5 else 0 for i in Y_]).reshape(m, 1)
    accuracy = metrics.accuracy_score(Y_test, Y2)
    return accuracy


def cost_gradient_descent(X, Y, W, b, learning_rate, lamda):
    Z = np.dot(X, W) + b
    Y_ = sigmod(Z)
    m = X.shape[0]

    Y2 = np.array([1 if i > 0.5 else 0 for i in Y_]).reshape(m, 1)
    accuracy = metrics.accuracy_score(Y, Y2)

#     J = -(Y.T.dot(np.log(Y_)) + (1 - Y).T.dot(np.log(1 - Y_))).sum() / m
#
#     W = W - (learning_rate *
#              (1 / m) * (X.T.dot(Y_ - Y)) + 0)

    J = -(Y.T.dot(np.log(Y_)) + (1 - Y).T.dot(np.log(1 - Y_))).sum() / \
        m + lamda * (np.square(W).sum(axis=0)) * (1 / (2 * m))

    W = W - (learning_rate *
             (1 / m) * (X.T.dot(Y_ - Y)) + (1 / m) * W * lamda)
    b = b - learning_rate * (1 / m) * ((Y_ - Y).sum(axis=0))
#     b = b - (learning_rate * (1 / m)
#              * ((Y_ - Y).sum(axis=0)) + (1 / m) * b * lamda)
    # b一般不進(jìn)行正則化
    return J, W, b, accuracy


def predict(W, b, X):
    Z = np.dot(X, W) + b
    Y_ = sigmod(Z)
    m = X.shape[0]
    Y2 = np.array([1 if i > 0.5 else 0 for i in Y_]).reshape(m, 1)
    return Y2


def train(X, Y, iter_num=1000):
    # define parameter
    m = X.shape[0]
    n = X.shape[1]
    W = np.ones((n, 1))
    b = 0
    learning_rate = 0.01
    lamda = 0.01
    i = 0
    J = []
    Accuracy = []
    while i < iter_num:
        i = i + 1
        j, W, b, accuracy = cost_gradient_descent(
            X, Y, W, b, learning_rate, lamda)
        J.append(j)
        Accuracy.append(accuracy)
        print("step:", i, "cost:", j, "accuracy:", accuracy)
    print(W)
    print(b)
    plt.plot(J)
    plt.plot(Accuracy)
    plt.show()
    return W, b


def main():
    # construct data
    iris = datasets.load_iris()
    X, Y = iris.data, iris.target.reshape(150, 1)
    X = X[Y[:, 0] < 2]
    Y = Y[Y[:, 0] < 2]
    train(X, Y, 100)


def test():
    X = np.array([[1, 0.5], [1, 1.5], [2, 1], [3, 1]])
    m = (X.shape[0])
    n = (X.shape[1])
    Y = np.array([0, 0, 1, 0]).reshape(m, 1)
    print((Y.shape))
    print(train(X, Y, 1000))

if __name__ == '__main__':
    main()
#     test()


運(yùn)行代碼將輸出如下:在64次迭代的時候就收斂了讽膏。代碼里面實(shí)現(xiàn)了參數(shù)的L2正則化檩电。

step: 62 cost: [ 0.33512973] accuracy: 0.97
step: 63 cost: [ 0.32701202] accuracy: 0.98
step: 64 cost: [ 0.31998367] accuracy: 1.0
step: 65 cost: [ 0.31388857] accuracy: 1.0

此代碼是可用代碼

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市府树,隨后出現(xiàn)的幾起案子俐末,更是在濱河造成了極大的恐慌,老刑警劉巖奄侠,帶你破解...
    沈念sama閱讀 217,907評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件卓箫,死亡現(xiàn)場離奇詭異,居然都是意外死亡垄潮,警方通過查閱死者的電腦和手機(jī)烹卒,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,987評論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來弯洗,“玉大人旅急,你說我怎么就攤上這事∧嫡” “怎么了坠非?”我有些...
    開封第一講書人閱讀 164,298評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長果正。 經(jīng)常有香客問我炎码,道長,這世上最難降的妖魔是什么秋泳? 我笑而不...
    開封第一講書人閱讀 58,586評論 1 293
  • 正文 為了忘掉前任潦闲,我火速辦了婚禮,結(jié)果婚禮上迫皱,老公的妹妹穿的比我還像新娘歉闰。我一直安慰自己,他們只是感情好卓起,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,633評論 6 392
  • 文/花漫 我一把揭開白布和敬。 她就那樣靜靜地躺著,像睡著了一般戏阅。 火紅的嫁衣襯著肌膚如雪昼弟。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,488評論 1 302
  • 那天奕筐,我揣著相機(jī)與錄音舱痘,去河邊找鬼变骡。 笑死,一個胖子當(dāng)著我的面吹牛芭逝,可吹牛的內(nèi)容都是我干的塌碌。 我是一名探鬼主播,決...
    沈念sama閱讀 40,275評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼旬盯,長吁一口氣:“原來是場噩夢啊……” “哼台妆!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起胖翰,我...
    開封第一講書人閱讀 39,176評論 0 276
  • 序言:老撾萬榮一對情侶失蹤接剩,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后泡态,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,619評論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡迂卢,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,819評論 3 336
  • 正文 我和宋清朗相戀三年某弦,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片而克。...
    茶點(diǎn)故事閱讀 39,932評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡靶壮,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出员萍,到底是詐尸還是另有隱情腾降,我是刑警寧澤,帶...
    沈念sama閱讀 35,655評論 5 346
  • 正文 年R本政府宣布碎绎,位于F島的核電站螃壤,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏筋帖。R本人自食惡果不足惜奸晴,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,265評論 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望日麸。 院中可真熱鬧寄啼,春花似錦、人聲如沸代箭。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,871評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽嗡综。三九已至乙帮,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間极景,已是汗流浹背蚣旱。 一陣腳步聲響...
    開封第一講書人閱讀 32,994評論 1 269
  • 我被黑心中介騙來泰國打工碑幅, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人塞绿。 一個月前我還...
    沈念sama閱讀 48,095評論 3 370
  • 正文 我出身青樓沟涨,卻偏偏與公主長得像,于是被迫代替她去往敵國和親异吻。 傳聞我的和親對象是個殘疾皇子裹赴,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,884評論 2 354

推薦閱讀更多精彩內(nèi)容