BatchNormalization

為了證明BatchNormalization的作用,自己寫了一個(gè)二次函數(shù)回歸的小程序,從loss圖上可以看出,確實(shí)是有BatchNormalization層時(shí)收斂的速度更快,另外本程序還使用了函數(shù)模型的寫法,關(guān)于BatchNormalization的理論可以參考:https://arxiv.org/pdf/1502.03167v3.pdf

#coding:utf-8
from keras.layers import Dense
import numpy as np
import matplotlib.pyplot as plt
from keras.models import Model,Sequential
from keras.layers import Input,Dense,Activation,BatchNormalization
from keras.utils import plot_model

x_data = np.linspace(-5,5,3000)
np.random.shuffle(x_data)
noise = np.random.normal(0,1,x_data.shape)
y_data = x_data**2+5+noise

x_train = x_data[:2500]
y_train = y_data[:2500]

# plt.figure()
plt.scatter(x_train,y_train,marker='.')
# plt.close(1)

x_test = x_data[2500:]
y_test = y_data[2500:]

inputs = Input(shape=(1,))
x=Dense(3)(inputs)
x=BatchNormalization(axis=-1)(x)
x = Activation('sigmoid')(x)
x=Dense(3)(x)
x=BatchNormalization(axis=-1)(x)
x = Activation('sigmoid')(x)
x=Dense(3)(x)
outputs = Dense(1)(x)

model = Model(inputs=inputs,outputs=outputs)

plot_model(model,to_file='model.png',show_shapes=1)

model.compile(optimizer='sgd',loss='mse')

print('Train------------')
sum_cost=[]
for step in range(1001):
    cost = model.train_on_batch(x_train,y_train)
    sum_cost=np.append(sum_cost,cost)
    if step%100==0:
        print('cost=',cost)
plt.plot(range(1001),sum_cost)
plt.show()

#用預(yù)測(cè)的模型來(lái)預(yù)測(cè)y_test

loss = model.test_on_batch(x_test,y_test)

y_test = model.predict(x_test)

plt.figure()
plt.scatter(x_train,y_train,c='b',marker='.')

plt.scatter(x_test,y_test,c='r',marker='.')
plt.show()
  • 有batchnormalization


    圖片.png
  • 沒(méi)有batchnormalization


    圖片.png
  • 擬合效果如下:

Figure_3.png
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末低千,一起剝皮案震驚了整個(gè)濱河市秕豫,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌法焰,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,270評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件倔毙,死亡現(xiàn)場(chǎng)離奇詭異埃仪,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)陕赃,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,489評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門卵蛉,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人么库,你說(shuō)我怎么就攤上這事傻丝。” “怎么了诉儒?”我有些...
    開(kāi)封第一講書人閱讀 165,630評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵桑滩,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我允睹,道長(zhǎng)运准,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書人閱讀 58,906評(píng)論 1 295
  • 正文 為了忘掉前任缭受,我火速辦了婚禮胁澳,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘米者。我一直安慰自己韭畸,他們只是感情好宇智,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,928評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著胰丁,像睡著了一般随橘。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上锦庸,一...
    開(kāi)封第一講書人閱讀 51,718評(píng)論 1 305
  • 那天机蔗,我揣著相機(jī)與錄音,去河邊找鬼甘萧。 笑死萝嘁,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的扬卷。 我是一名探鬼主播牙言,決...
    沈念sama閱讀 40,442評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼怪得!你這毒婦竟也來(lái)了咱枉?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書人閱讀 39,345評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤徒恋,失蹤者是張志新(化名)和其女友劉穎庞钢,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體因谎,經(jīng)...
    沈念sama閱讀 45,802評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡基括,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,984評(píng)論 3 337
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了财岔。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片风皿。...
    茶點(diǎn)故事閱讀 40,117評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖匠璧,靈堂內(nèi)的尸體忽然破棺而出桐款,到底是詐尸還是另有隱情,我是刑警寧澤夷恍,帶...
    沈念sama閱讀 35,810評(píng)論 5 346
  • 正文 年R本政府宣布魔眨,位于F島的核電站,受9級(jí)特大地震影響酿雪,放射性物質(zhì)發(fā)生泄漏遏暴。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,462評(píng)論 3 331
  • 文/蒙蒙 一指黎、第九天 我趴在偏房一處隱蔽的房頂上張望朋凉。 院中可真熱鬧,春花似錦醋安、人聲如沸杂彭。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 32,011評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)亲怠。三九已至所计,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間团秽,已是汗流浹背主胧。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 33,139評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留徙垫,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,377評(píng)論 3 373
  • 正文 我出身青樓放棒,卻偏偏與公主長(zhǎng)得像姻报,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子间螟,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,060評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容