[手把手系列之一]實現(xiàn)單層神經網絡

使用python手寫實現(xiàn)單層神經網絡[本質上學習logistic 回歸的系數(shù)]懊亡。單層:有參數(shù)的一層楣责;輸入不算網絡層遏餐。

網絡用途

或者說應用場景:使用單層神經網絡來識別一張圖片是否是貓咪的圖片慨削。

數(shù)學表示

給定一張圖片$X$ 送到網絡中友驮,判斷這張圖片是否是貓咪的照片旨涝?

網絡架構

單層神經網絡:

  • X(input)---> Output($\hat{y}$)

處理過程:

  • X --> linear ---> sigmoid ---> $\hat{y}$

數(shù)學表示

訓練集: $X = [x{(1)},x{(2)},...,x{(i)},....,x{(m)}]$ ;對應標簽:$Y=[y{(1)},y{(2)},...,y{(i)},...,y{(m)}]$ ;

對于訓練集中的每張照片$x^{(i)}$ 的處理過程:

$z^{(i)} = wTx{(i)}+b$

$\hat{y}^{(i)} = a^{(i)} = sigmoid(z^{(i)})$

$L(a{(i)},y{(i)}) = -y{(i)}log(a{(i)})-(1-y{(i)})log(1-a{(i)})$

成本函數(shù):

$J = \frac{1}{m} \sum_{i=1}^{m} L(a{(i)},y{(i)})$

最后通過反向傳播算法蹬屹,計算參數(shù)$W$ 和 $b$ 。

模型定義

模型定義步驟

  1. 定義模型結構(如輸入向量的特征數(shù)目)
  2. 初始化模型參數(shù);
  3. 循環(huán):
    • 前向傳播慨默,計算loss贩耐;
    • 反向傳播,計算梯度厦取;
    • 梯度下降潮太,更新參數(shù);

代碼實現(xiàn)

輔助函數(shù)

def sigmoid(z):
    """
    激活函數(shù)
    Arguments:
    z -- 標量或者是numpy array類型

    Return:
    s -- sigmoid(z)
    """
    s = 1/(1+np.exp(-z))
    
    return s

參數(shù)初始化

權重系數(shù)$W$和$b$ 全都初始化為0.

def initialize_with_zeros(dim):
    """
    網絡參數(shù)w 和 b 的初始化虾攻;
    
    Argument:
    dim -- 表示權重系數(shù)w的維度[這里表示輸入層的數(shù)據維度]---單層網絡铡买;
    
    Returns:
    w -- 初始化向量 shape (dim, 1)
    b -- 初始化標量 
    """
    w = np.zeros((dim, 1))#dim表示輸入層X的維度,1表示本層只有一個神經元
    b = 0

    return w, b

前向傳播和反向傳播

由于網絡為單層神經網絡霎箍,前向傳播過程和反向傳播過程比較簡單奇钞,所以整合到一起。直接計算出相應的成本函數(shù)和相應的系數(shù)梯度朋沮。

前向傳播過程

訓練集: $$X = [x{(1)},x{(2)},...,x{(i)},....,x{(m)}]$$ ;對應標簽:$$Y=[y{(1)},y{(2)},...,y{(i)},...,y{(m)}] $$;

對于訓練集中的每張照片$x^{(i)}$ 的處理過程:

$z^{(i)} = wTx{(i)}+b$

$\hat{y}^{(i)} = a^{(i)} = sigmoid(z^{(i)})$

$L(a{(i)},y{(i)}) = -y{(i)}log(a{(i)})-(1-y{(i)})log(1-a{(i)})$

成本函數(shù):$J = \frac{1}{m} \sum_{i=1}^{m} L(a{(i)},y{(i)})$

反向傳播過程

假設輸入數(shù)據維度為2蛇券;權重系數(shù)維度是2.

反向傳播的計算圖:

image

以輸入維度為2,權重系數(shù)w為2維樊拓,舉例:

image
def propagate(w, b, X, Y):
    """
    實現(xiàn)前向傳播和反向傳播過程

    Arguments:
    w -- 權重系數(shù)纠亚,numpy array,size (num_px * num_px * 3, 1)
    b -- 偏置筋夏,標量
    X -- 輸入的測試數(shù)據蒂胞,shape (num_px * num_px * 3, 樣本數(shù)m)
    Y -- 測試數(shù)據的標簽向量 ( 0 不是貓, 1 貓) ,size (1, m) 

    Return:
    cost -- logistic 回歸的成本函數(shù)值
    dw -- 成本函數(shù)關于參數(shù)w的梯度值
    db -- 成本函數(shù)關于參數(shù)w的梯度值
    """
    
    m = X.shape[1] # 獲取樣本數(shù)

    # 前向傳播過程
    Z = np.dot(w.T, X) + b
    A = sigmoid(Z) #計算激活函數(shù)
    cost = -1 / m * np.sum(Y * np.log(A) + (1 - Y) * np.log(1 - A))  # 計算成本函數(shù)
    
    # 反向傳播過程計算梯度
    dw = 1 / m * np.dot(X, (A - Y).T) # 向量
    db = 1 / m * np.sum(A - Y)
    assert(dw.shape == w.shape)
    assert(db.dtype == float)
    cost = np.squeeze(cost) # 成本函數(shù)
    assert(cost.shape == ())
    
    grads = {"dw": dw,
             "db": db}
    
    return grads, cost

參數(shù)優(yōu)化

參數(shù)更新過程--使用梯度下降算法条篷;

def optimize(w,b,X,y,num_iters,learning_rate,print_cost=True):
    """
    參數(shù)優(yōu)化過程
    :param w: 系數(shù)矩陣
    :param b: 偏置
    :param X: 測試集
    :param y: 測試集標簽
    :param num_iters: 迭代次數(shù)
    :param learning_rate: 學習率
    :param print_cost: 是否打印輸出cost變化;每100次打印輸出一次
    :return:
    - params: 更新后的參數(shù)
    - grads: 梯度計算值
    - costs:cost變化過程骗随;每100次為一個記錄值
    """
    costs = []

    for i in range(num_iters):
        grads, cost = propagate(w, b, X, y)
        dw = grads['dw']
        db = grads['db']
        #參數(shù)更新
        w = w - learning_rate * dw
        b = b - learning_rate * db

        if i % 100 == 0:#添加到costs
            costs.append(cost)
        if print_cost and i % 100 == 0: # 打印輸出
            print("Cost after iteration {}:{}".format(i, cost))

        params = {'w': w,
                  'b': b}

    return params, grads, costs

模型預測

輸入測試集,輸出測試標簽.

運算過程:做一次前向傳播赴叹,得到輸出鸿染;再對輸出和threshold閾值作比較,得出類別標簽乞巧。

def predict(w,b,X):
    """
    給定一張圖片預測分類標簽
    :param w: 訓練后的權重w參數(shù) (n_px * n_px * 3, 1)
    :param b: 訓練后的偏置b參數(shù)
    :param X: 測試圖片 (n_px * n_px * 3, m)
    :return: 分類標簽yHat
    """
    m = X.shape[1]
    yHat = np.zeros((1, m))
    assert (w.shape == (X.shape[0], 1))
    yHat = sigmoid(np.dot(w.T, X) + b) # 前向傳播過程

    # 確定預測的分類標簽 threshold為0.5
    for i in range(m):
        if yHat[0, i] > 0.5:
            yHat[0, i] = 1
        else:
            yHat[0, i] = 0

    return yHat

函數(shù)整合

def model(X_train, y_train, X_test, y_test, num_iters=2000, learning_rate=0.05, print_cost=True):
    """
    將所有的函數(shù)整合到一起形成一個完整的模型
    :param X_train: 訓練集 (n_px*n_px*3, m)
    :param y_train: 訓練集標簽 (1, m)
    :param X_test: 測試集 (n_px*n_px*3, n)
    :param y_test: 測試集標簽 (1, n)
    :param num_iters: 迭代次數(shù)
    :param learning_rate: 學習率
    :param print_cost: 是否打印輸出cost成本函數(shù)值
    :return:
    - d: 模型信息字典
    """
    w, b = initialize_with_zeros(X_train.shape[0])

    params, grads, costs = optimize(w, b, X_train, y_train, num_iters, learning_rate, print_cost)

    w = params['w']
    b = params['b']

    yHat_train = predict(w, b, X_train)
    yHat_test = predict(w, b, X_test)

    print("Accuracy on Training set:{:.2f}%".format(100*np.mean(y_train == yHat_train)))
    print("Accuracy on Test set:{:.2f}%".format(100*np.mean(y_test == yHat_test)))

    d = {
        'costs': costs,
        'yHat_train': yHat_train,
        'yHat_test': yHat_test,
        'w': w,
        'b': b,
        'learning_rate': learning_rate,
        'num_iters': num_iters
    }

    return d

測試:500次迭代涨椒、學習率為0.001;

d = model(X_train,y_train,X_test,y_test,num_iters=500,learning_rate=0.001)

輸出結果變化:

Cost after iteration 0:0.6931471805599453
Cost after iteration 100:0.5912894260003537
Cost after iteration 200:0.5557961107127088
Cost after iteration 300:0.5289765131562365
Cost after iteration 400:0.5068812917435517
Accuracy on Training set:77.51%
Accuracy on Test set:56.00%

小結

  1. 向量化運算能大大提高運算效率绽媒;編碼實現(xiàn)時最好不要使用for-loop 循環(huán)蚕冬;
  2. 理解網絡運算過程時,畫一個運算圖很很大程度上幫助理解是辕;
  3. 編碼實現(xiàn)時囤热,注意變量的shape變化是否正確!

完整代碼:>>點我

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末获三,一起剝皮案震驚了整個濱河市旁蔼,隨后出現(xiàn)的幾起案子锨苏,更是在濱河造成了極大的恐慌,老刑警劉巖牌芋,帶你破解...
    沈念sama閱讀 211,639評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件蚓炬,死亡現(xiàn)場離奇詭異松逊,居然都是意外死亡躺屁,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,277評論 3 385
  • 文/潘曉璐 我一進店門经宏,熙熙樓的掌柜王于貴愁眉苦臉地迎上來犀暑,“玉大人,你說我怎么就攤上這事烁兰∧涂鳎” “怎么了?”我有些...
    開封第一講書人閱讀 157,221評論 0 348
  • 文/不壞的土叔 我叫張陵沪斟,是天一觀的道長广辰。 經常有香客問我,道長主之,這世上最難降的妖魔是什么择吊? 我笑而不...
    開封第一講書人閱讀 56,474評論 1 283
  • 正文 為了忘掉前任,我火速辦了婚禮槽奕,結果婚禮上几睛,老公的妹妹穿的比我還像新娘。我一直安慰自己粤攒,他們只是感情好所森,可當我...
    茶點故事閱讀 65,570評論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著夯接,像睡著了一般焕济。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上盔几,一...
    開封第一講書人閱讀 49,816評論 1 290
  • 那天晴弃,我揣著相機與錄音,去河邊找鬼问欠。 笑死肝匆,一個胖子當著我的面吹牛,可吹牛的內容都是我干的顺献。 我是一名探鬼主播旗国,決...
    沈念sama閱讀 38,957評論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼注整!你這毒婦竟也來了能曾?” 一聲冷哼從身側響起度硝,我...
    開封第一講書人閱讀 37,718評論 0 266
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎寿冕,沒想到半個月后蕊程,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經...
    沈念sama閱讀 44,176評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡驼唱,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 36,511評論 2 327
  • 正文 我和宋清朗相戀三年藻茂,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片玫恳。...
    茶點故事閱讀 38,646評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡辨赐,死狀恐怖,靈堂內的尸體忽然破棺而出京办,到底是詐尸還是另有隱情掀序,我是刑警寧澤,帶...
    沈念sama閱讀 34,322評論 4 330
  • 正文 年R本政府宣布惭婿,位于F島的核電站不恭,受9級特大地震影響,放射性物質發(fā)生泄漏财饥。R本人自食惡果不足惜换吧,卻給世界環(huán)境...
    茶點故事閱讀 39,934評論 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望佑力。 院中可真熱鬧式散,春花似錦、人聲如沸打颤。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,755評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽编饺。三九已至乖篷,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間透且,已是汗流浹背撕蔼。 一陣腳步聲響...
    開封第一講書人閱讀 31,987評論 1 266
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留秽誊,地道東北人鲸沮。 一個月前我還...
    沈念sama閱讀 46,358評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像锅论,于是被迫代替她去往敵國和親讼溺。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 43,514評論 2 348

推薦閱讀更多精彩內容