1.LogisticRegression

這里就不仔細(xì)介紹 原理了
詳細(xì)的原理請(qǐng)參考吳恩達(dá) 深度學(xué)習(xí) 課程 移步網(wǎng)易教育好啦
PS:我也有寫視頻課的筆記 如果覺得有問題可以閱覽一下我的筆記哦 也許有提到你的疑問啦 我是按照自己聽課的時(shí)候思維邏輯寫的筆記
(超小聲:有夠懶的 筆記不知道什么時(shí)候才會(huì)跟著補(bǔ)完……

我知道寫下這些可能沒有人會(huì)看到 但都是我一行一行寫的代碼
如果你看到了 給我點(diǎn)個(gè)贊吧 鼓勵(lì)一下小朋友吧 :b

下面的代碼都是jupyter notebook
可以直接運(yùn)行的代碼! 自己親手敲的那種1昧铡(叉腰~)
具體的介紹 我就用注釋寫在下面啦

有問題留言哦

import numpy as np

# input: x, w, b output: z 
def layer(x,w,b):
    return np.dot(x , w)+b

# 定義 損失函數(shù)
# input: pred_y & true_y output : loss(pre_y,true_y)
def mse(pred_y, true_y):
    return 0.5 * (pred_y - true_y)**2

# input: pre_y & true_y output: dl_y

def mse_grad(pred_y, true_y):
    return pred_y - true_y

# 激活函數(shù) 
# input: (w*x+b) 線性模型 output:  pre_y
def sigmoid(z):
    return 1 / (1 + np.exp(-z))

# input : pre_y output:dy_z
def sigmoid_grad(y):
    return y * (1-y)


# input: x   output: dz_w,dz_b
def layer_grad(x):
    return x, 1

# input: x,w,b   output ---> pre_y
def forward(x,w,b):
    z=layer(x,w,b)
    return sigmoid(z)

# backward :input: pre_y , true_y  output ---> dw,db
# 反向傳播的主要目的就是更新dw,db 這里的導(dǎo)數(shù)計(jì)算需要一定的微積分基礎(chǔ)哦
def backward(pred_y, true_y,x):
    dl_y = mse_grad(pred_y,true_y)
    dy_z = sigmoid_grad(pred_y)
    dz_w, dz_b = layer_grad(x)
    
    dw = dl_y * dy_z * dz_w
    db = dl_y * dy_z
    
    return dw, db

# 這里多說兩句 一定要算清楚 計(jì)算是最基礎(chǔ)的 需要自己動(dòng)筆算的鴨
# 這里變量比較多 主要是要弄清楚每個(gè)函數(shù)的 輸入和輸出
# 第一次寫 我也比較懵逼 所以我都標(biāo)注了每個(gè)函數(shù)的輸入和輸出 
# 因?yàn)楫?dāng)函數(shù)變多的時(shí)候 如果自己都搞不清楚 輸入和輸出的話 很容易就把自己搞暈了

# 定義class
class LogisticRegression(object):

    def __init__(self, in_size, lr):
        self.w = np.random.randn(in_size)
        self.b = np.random.randn(1)
        self.lr = lr
    
    def forward(self,x):
        return forward(x,self.w,self.b)
    
    def backward(self, pred_y, true_y, x):
        return backward(pred_y, true_y, x)
    
# 更新參數(shù)(w,b)
    def step(self, dw, db):
        self.w -= self.lr * dw
        self.b -= self.lr * db

# 訓(xùn)練函數(shù) 其實(shí)都是調(diào)用之前寫好的函數(shù)了
def train(model, X, Y, epochs):
    losses = []
 # epochs : 訓(xùn)練輪次
    for i in range(epochs):
        inds = list(range(X.shape[0]))
        np.random.shuffle(inds) # 打亂順序 : 隨機(jī)梯度下降
        loss = 0
      
        for ind in inds:
        # 從輸入矩陣?yán)锩?取出來一個(gè)樣本
            x = X[ind] 
            y = Y[ind]
            
            pred_y = model.forward(x)
            
            #累計(jì)loss 
            loss += mse(pred_y, y) 
                        
            dw, db = model.backward(pred_y, y, x)
            model.step(dw, db)
        
        # 輸出每一輪的loss 可以觀察到每一輪數(shù)值都在下降
        print("epoch{}, loss = {}".format(i, loss / X.shape[0]))
        
        losses.append(loss)
    
    return losses


# 觀察一下訓(xùn)練的結(jié)果 輸入的是準(zhǔn)確率
def test(model, X, Y):
    correct_cnt = 0
    for i in range(X.shape[0]):
        x = X[I]
        y = Y[I]
        pred_y = model.forward(x)
        
        pred_y = 1 if pred_y > 0.5 else 0
        
        correct_cnt += (y == pred_y)
    
    return correct_cnt / X.shape[0]

n = 10000    #樣本維數(shù)
input_size = 5 
epochs = 500

#初始化w,b
w = np.random.randn(input_size)
b = np.random.randn(1)

# model 實(shí)例
true_lr = LogisticRegression(input_size, 0.001)
true_lr.w = w
true_lr.b = b


# 隨機(jī)生成的數(shù)據(jù) 這樣生成的數(shù)據(jù)是服從正態(tài)分布的
X = [np.random.randn(input_size) for i in range(n)]
Y = [1 if true_lr.forward(X[i]) > 0.5 else 0 for i in range(n)]
X = np.array(X)
Y = np.array(Y)

lr = LogisticRegression(input_size, 0.01)

# 激動(dòng)人心的時(shí)刻M酶省! 讓我們開始訓(xùn)練吧!干巴爹
losses = train(lr, X, Y, epochs)

#讓我們欣賞一下 自己的杰作 (畫個(gè)圖 看看)
import matplotlib.pyplot as plt
plt.plot(range(epochs), losses)

#測(cè)試一下看看
test_X = [np.random.randn(input_size) for i in range(n)]
test_Y = [1 if true_lr.forward(X[i]) > 0.5 else 0 for i in range(n)]
test_X = np.array(test_X)
test_Y = np.array(test_Y)

test(lr, test_X, test_Y)

哈哈哈 ! 我很滿意!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末蜡感,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌郑兴,老刑警劉巖犀斋,帶你破解...
    沈念sama閱讀 222,627評(píng)論 6 517
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異情连,居然都是意外死亡闪水,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,180評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門蒙具,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人朽肥,你說我怎么就攤上這事禁筏。” “怎么了衡招?”我有些...
    開封第一講書人閱讀 169,346評(píng)論 0 362
  • 文/不壞的土叔 我叫張陵篱昔,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我始腾,道長(zhǎng)州刽,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 60,097評(píng)論 1 300
  • 正文 為了忘掉前任浪箭,我火速辦了婚禮穗椅,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘奶栖。我一直安慰自己匹表,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 69,100評(píng)論 6 398
  • 文/花漫 我一把揭開白布宣鄙。 她就那樣靜靜地躺著袍镀,像睡著了一般。 火紅的嫁衣襯著肌膚如雪冻晤。 梳的紋絲不亂的頭發(fā)上苇羡,一...
    開封第一講書人閱讀 52,696評(píng)論 1 312
  • 那天,我揣著相機(jī)與錄音鼻弧,去河邊找鬼设江。 笑死,一個(gè)胖子當(dāng)著我的面吹牛温数,可吹牛的內(nèi)容都是我干的绣硝。 我是一名探鬼主播,決...
    沈念sama閱讀 41,165評(píng)論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼撑刺,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼鹉胖!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 40,108評(píng)論 0 277
  • 序言:老撾萬榮一對(duì)情侶失蹤甫菠,失蹤者是張志新(化名)和其女友劉穎挠铲,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體寂诱,經(jīng)...
    沈念sama閱讀 46,646評(píng)論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡拂苹,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,709評(píng)論 3 342
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了痰洒。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片瓢棒。...
    茶點(diǎn)故事閱讀 40,861評(píng)論 1 353
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖丘喻,靈堂內(nèi)的尸體忽然破棺而出脯宿,到底是詐尸還是另有隱情,我是刑警寧澤泉粉,帶...
    沈念sama閱讀 36,527評(píng)論 5 351
  • 正文 年R本政府宣布连霉,位于F島的核電站,受9級(jí)特大地震影響嗡靡,放射性物質(zhì)發(fā)生泄漏跺撼。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,196評(píng)論 3 336
  • 文/蒙蒙 一讨彼、第九天 我趴在偏房一處隱蔽的房頂上張望歉井。 院中可真熱鬧,春花似錦点骑、人聲如沸酣难。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,698評(píng)論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽憨募。三九已至,卻和暖如春袁辈,著一層夾襖步出監(jiān)牢的瞬間菜谣,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,804評(píng)論 1 274
  • 我被黑心中介騙來泰國(guó)打工晚缩, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留尾膊,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 49,287評(píng)論 3 379
  • 正文 我出身青樓荞彼,卻偏偏與公主長(zhǎng)得像冈敛,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子鸣皂,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,860評(píng)論 2 361

推薦閱讀更多精彩內(nèi)容