正則化够颠、dropout深層神經(jīng)網(wǎng)絡(luò)

-- coding: utf-8 --

"""
Created on Sun Sep 30 22:57:44 2018

@author: ltx
"""
采用正則化的方法和隨機(jī)刪除節(jié)點都有助于防止模型過擬合洋腮。

當(dāng)數(shù)據(jù)集特別小劲赠,為了防止訓(xùn)練得出的模型過擬合逞带,使用正則化方法

import numpy as np
import matplotlib.pyplot as plt
import reg_utils #正則化

train_x,train_y,test_x,test_y=reg_utils.load_2D_dataset(is_plot=True)
X=train_x
Y=train_y
m=X.shape[1]

--------------正則化模型(避免模型過度擬合)start----------------------

采用L2正則化方法陌兑,適當(dāng)?shù)男薷某杀竞瘮?shù),添加一個L2正則化成本

def compute_cost_reg(a3,Y,parameters,lambd):
W1 = parameters["W1"]
W2=parameters["W2"]
W3=parameters["W3"]
cost1=reg_utils.compute_cost(a3, Y)
cost2=(1/m)(np.sum(np.square(W1))+np.sum(np.square(W2))+np.sum(np.square(W3)))(lambd/2)
cost=cost1+cost2
return cost

def backward_propagation_reg(X, Y, cache,lambd):
(Z1, A1, W1, b1, Z2, A2, W2, b2, Z3, A3, W3, b3) = cache

dZ3=A3-Y
dW3=(1/m)*np.dot(dZ3,A2.T)+((lambd*W3)/m)
db3=(1/m)*np.sum(dZ3,keepdims=True,axis=1)

dA2=np.dot(W3.T,dZ3)
dZ2=np.multiply(dA2,np.int64(A2>0))
dW2=(1/m)*np.dot(dZ2,A1.T)+((lambd*W2)/m)
db2=(1/m)*np.sum(dZ2,keepdims=True,axis=1)

dA1=np.dot(W2.T,dZ2)
dZ1=np.multiply(dA1,np.int64(A1>0))
dW1=(1/m)*np.dot(dZ1,X.T)+((lambd*W1)/m)
db1=(1/m)*np.sum(dZ1,keepdims=True,axis=1)

grads={"dW1":dW1,
       "db1":db1,
       "dW2":dW2,
       "db2":db2,
       "dW3":dW3,
       "db3":db3
        }


return grads

--------------正則化模型(避免模型過度擬合)end----------------------

-------------采用隨機(jī)刪除節(jié)點來防止模型過擬合start--------------

def forward_DelNode(X,parameters,keep_prob):
W1=parameters["W1"]
b1=parameters["b1"]
W2=parameters["W2"]
b2=parameters["b2"]
W3=parameters["W3"]
b3=parameters["b3"]
np.random.seed(1)
Z1=np.dot(W1,X)+b1
A1=reg_utils.relu(Z1)
D1=np.random.rand(A1.shape[0],A1.shape[1])
D1=D1 < keep_prob
A1=A1 * D1
A1=A1 / keep_prob

Z2=np.dot(W2,A1)+b2
A2=reg_utils.relu(Z2)
D2=np.random.rand(A2.shape[0],A2.shape[1])
D2=D2 < keep_prob
A2=A2 * D2
A2=A2 / keep_prob

Z3=np.dot(W3,A2)+b3
A3=reg_utils.sigmoid(Z3)
cache = (Z1, D1, A1, W1, b1, Z2, D2, A2, W2, b2, Z3, A3, W3, b3)
return A3,cache

相應(yīng)的向后傳播模型也要隨機(jī)刪除節(jié)點(在未正則化的基礎(chǔ)上采用隨機(jī)節(jié)點)

def backDelNode(X,Y,cache,keep_prob):

(Z1, D1, A1, W1, b1, Z2, D2, A2, W2, b2, Z3, A3, W3, b3)=cache
dZ3=A3-Y
dW3=(1/m)*np.dot(dZ3,A2.T)
db3=(1/m)*np.sum(dZ3,keepdims=True,axis=1)

dA2=np.dot(W3.T,dZ3)
dA2=dA2*D2
dA2=dA2/keep_prob
dZ2=np.multiply(dA2,np.int64(A2>0))#為啥要根據(jù)A2的正負(fù)來消減dZ2的值偷厦,但最后對結(jié)果沒有造成影響
dW2=(1/m)*np.dot(dZ2,A1.T)
db2=(1/m)*np.sum(dZ2,keepdims=True,axis=1)

dA1=np.dot(W2.T,dZ2)
dA1=dA1*D1
dA1=dA1/keep_prob
dZ1=np.multiply(dA1,np.int64(A1>0))
dW1=(1/m)*np.dot(dZ1,X.T)
db1=(1/m)*np.sum(dZ1,keepdims=True,axis=1)
grads={"dW1":dW1,
       "db1":db1,
       "dW2":dW2,
       "db2":db2,
       "dW3":dW3,
       "db3":db3
        }

return grads

-------------采用隨機(jī)刪除節(jié)點來防止模型過擬合end--------------

def model(X,Y,learning_rate=0.3,num_iterations=20000,print_cost=True,is_plot=True,lambd=0,keep_prob=1):
grads={}
costs=[]
layerdims=[X.shape[0],20,3,1]
parameters= reg_utils.initialize_parameters(layerdims)

for i in range (0,num_iterations):
    if(lambd==0 and keep_prob==1):
        a3, cache=reg_utils.forward_propagation(X,parameters)
        cost=reg_utils.compute_cost(a3,Y) 
    elif (lambd!=0):
        a3, cache=reg_utils.forward_propagation(X,parameters)
        cost=compute_cost_reg(a3,Y,parameters,lambd)
    elif(keep_prob!=1):
        a3, cache=forward_DelNode(X,parameters,keep_prob)
        cost=reg_utils.compute_cost(a3,Y) 
    if(i % 1000==0 and print_cost==True):
        costs.append(cost)
        print("Cost="+str(cost))
    if(lambd==0 and keep_prob==1):
        grads=reg_utils.backward_propagation(X, Y, cache)
    elif (lambd!=0):
        grads=backward_propagation_reg(X, Y, cache,lambd)
    elif(keep_prob!=1):
        grads=backDelNode(X,Y,cache,keep_prob)
    parameters=reg_utils.update_parameters(parameters, grads, learning_rate)
if(is_plot):
    plt.plot(costs)
    plt.xlabel('iterations (x1,000)')
    plt.ylabel('cost')
    plt.title("Learning rate =" + str(learning_rate))
    plt.show()
return parameters

parameters=model(X,Y,learning_rate=0.3,num_iterations=30000,print_cost=True,is_plot=True,lambd=0,keep_prob=0.86)
print("訓(xùn)練集精度:")
prediction=reg_utils.predict(X,Y,parameters)
print("測試集精度:")
prediction=reg_utils.predict(test_x,test_y,parameters)

-------------畫出預(yù)測結(jié)果決策圖---------------------------

plt.title("Model without regularization")
axes = plt.gca()
axes.set_xlim([-0.75,0.40])
axes.set_ylim([-0.75,0.65])
reg_utils.plot_decision_boundary(lambda x: reg_utils.predict_dec(parameters, x.T), train_x, train_y)
--------------------實驗的結(jié)果--------------------------------------


正則化1.png
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末商叹,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子只泼,更是在濱河造成了極大的恐慌剖笙,老刑警劉巖,帶你破解...
    沈念sama閱讀 217,406評論 6 503
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件请唱,死亡現(xiàn)場離奇詭異弥咪,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)籍滴,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,732評論 3 393
  • 文/潘曉璐 我一進(jìn)店門酪夷,熙熙樓的掌柜王于貴愁眉苦臉地迎上來榴啸,“玉大人孽惰,你說我怎么就攤上這事∨赣。” “怎么了勋功?”我有些...
    開封第一講書人閱讀 163,711評論 0 353
  • 文/不壞的土叔 我叫張陵坦报,是天一觀的道長。 經(jīng)常有香客問我狂鞋,道長片择,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,380評論 1 293
  • 正文 為了忘掉前任骚揍,我火速辦了婚禮字管,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘信不。我一直安慰自己嘲叔,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 67,432評論 6 392
  • 文/花漫 我一把揭開白布抽活。 她就那樣靜靜地躺著硫戈,像睡著了一般。 火紅的嫁衣襯著肌膚如雪下硕。 梳的紋絲不亂的頭發(fā)上丁逝,一...
    開封第一講書人閱讀 51,301評論 1 301
  • 那天,我揣著相機(jī)與錄音梭姓,去河邊找鬼霜幼。 笑死,一個胖子當(dāng)著我的面吹牛誉尖,可吹牛的內(nèi)容都是我干的辛掠。 我是一名探鬼主播,決...
    沈念sama閱讀 40,145評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼释牺,長吁一口氣:“原來是場噩夢啊……” “哼萝衩!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起没咙,我...
    開封第一講書人閱讀 39,008評論 0 276
  • 序言:老撾萬榮一對情侶失蹤猩谊,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后祭刚,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體牌捷,經(jīng)...
    沈念sama閱讀 45,443評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,649評論 3 334
  • 正文 我和宋清朗相戀三年涡驮,在試婚紗的時候發(fā)現(xiàn)自己被綠了暗甥。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,795評論 1 347
  • 序言:一個原本活蹦亂跳的男人離奇死亡捉捅,死狀恐怖撤防,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情棒口,我是刑警寧澤寄月,帶...
    沈念sama閱讀 35,501評論 5 345
  • 正文 年R本政府宣布辜膝,位于F島的核電站,受9級特大地震影響漾肮,放射性物質(zhì)發(fā)生泄漏厂抖。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,119評論 3 328
  • 文/蒙蒙 一克懊、第九天 我趴在偏房一處隱蔽的房頂上張望忱辅。 院中可真熱鬧,春花似錦谭溉、人聲如沸耕蝉。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,731評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽垒在。三九已至,卻和暖如春扔亥,著一層夾襖步出監(jiān)牢的瞬間场躯,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,865評論 1 269
  • 我被黑心中介騙來泰國打工旅挤, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留踢关,地道東北人。 一個月前我還...
    沈念sama閱讀 47,899評論 2 370
  • 正文 我出身青樓粘茄,卻偏偏與公主長得像签舞,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子柒瓣,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,724評論 2 354

推薦閱讀更多精彩內(nèi)容