卷積神經(jīng)網(wǎng)絡(luò)2完全解析

#coding:utf-8

import tensorflow as tf

from tensorflow.examples.tutorials.mnist import input_data

import mnist_lenet5_forward

import os

import numpy as np

BATCH_SIZE = 100#一次喂入神經(jīng)網(wǎng)絡(luò)圖片數(shù)量

LEARNING_RATE_BASE =? 0.005 #學(xué)習(xí)率0.005

LEARNING_RATE_DECAY = 0.99 #學(xué)習(xí)衰減率

REGULARIZER = 0.0001

STEPS = 50000 #迭代次數(shù)

MOVING_AVERAGE_DECAY = 0.99 #滑動(dòng)平均衰減率

MODEL_SAVE_PATH="./model/" #模塊路徑

MODEL_NAME="mnist_model" #模塊名稱(chēng)

def backward(mnist):

? ? x = tf.placeholder(tf.float32,[#浮點(diǎn)型

BATCH_SIZE,#喂入圖片數(shù)量

mnist_lenet5_forward.IMAGE_SIZE,#行分辨率

mnist_lenet5_forward.IMAGE_SIZE,#列分辨率

mnist_lenet5_forward.NUM_CHANNELS]) #通道數(shù)

? ? y_ = tf.placeholder(tf.float32, [None, mnist_lenet5_forward.OUTPUT_NODE])

? ? y = mnist_lenet5_forward.forward(x,True, REGULARIZER) #調(diào)用向前傳播過(guò)程

? ? global_step = tf.Variable(0, trainable=False) #全局計(jì)數(shù)器初始化為零

? ? #交叉熵

? ? ce = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y, labels=tf.argmax(y_, 1))

? ? cem = tf.reduce_mean(ce)

? ? loss = cem + tf.add_n(tf.get_collection('losses'))#對(duì)得到的向量求均值

? ? #指數(shù)衰減學(xué)習(xí)率

? ? learning_rate = tf.train.exponential_decay(

? ? ? ? LEARNING_RATE_BASE,#學(xué)習(xí)率0.005

? ? ? ? global_step,

? ? ? ? mnist.train.num_examples / BATCH_SIZE,

LEARNING_RATE_DECAY,#0.99 #學(xué)習(xí)衰減率

? ? ? ? staircase=True) #階梯衰減

? ? #梯度下降算法

? ? train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)

? ? #滑動(dòng)平均模型

? ? ema = tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY, global_step)

? ? ema_op = ema.apply(tf.trainable_variables())

? ? with tf.control_dependencies([train_step, ema_op]):

? ? ? ? train_op = tf.no_op(name='train')#將train_step和ema_op綁定到train_op

? ? saver = tf.train.Saver() #實(shí)例化一個(gè)保存和恢復(fù)變量saver

? ? with tf.Session() as sess:

? ? ? ? init_op = tf.global_variables_initializer()

? ? ? ? sess.run(init_op)

? ? ? ? ckpt = tf.train.get_checkpoint_state(MODEL_SAVE_PATH)

? ? ? ? if ckpt and ckpt.model_checkpoint_path:

? ? ? ? saver.restore(sess, ckpt.model_checkpoint_path)

? ? ? ? for i in range(STEPS):

? ? ? ? ? ? xs, ys = mnist.train.next_batch(BATCH_SIZE) #讀取100數(shù)據(jù)

? ? ? ? ? ? reshaped_xs = np.reshape(xs,(? #轉(zhuǎn)換成相同矩陣

? ? BATCH_SIZE,#100

? ? ? ? mnist_lenet5_forward.IMAGE_SIZE,#行分辨率

? ? ? ? mnist_lenet5_forward.IMAGE_SIZE,#列分辨率

? ? ? ? mnist_lenet5_forward.NUM_CHANNELS))#通道

? ? ? ? ? ? _, loss_value, step = sess.run([train_op, loss, global_step], feed_dict={x: reshaped_xs, y_: ys})

? ? ? ? ? ? if i % 100 == 0:

? ? ? ? ? ? ? ? print("After %d training step(s), loss on training batch is %g." % (step, loss_value))

? ? ? ? ? ? ? ? saver.save(sess, os.path.join(MODEL_SAVE_PATH, MODEL_NAME), global_step=global_step)

def main():

? ? mnist = input_data.read_data_sets("./data/", one_hot=True)

? ? backward(mnist)

if __name__ == '__main__':

? ? main()

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末早敬,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子茶袒,更是在濱河造成了極大的恐慌见咒,老刑警劉巖瘪撇,帶你破解...
    沈念sama閱讀 217,084評(píng)論 6 503
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡殉疼,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,623評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門(mén)捌年,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)瓢娜,“玉大人,你說(shuō)我怎么就攤上這事礼预∶呃” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 163,450評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵托酸,是天一觀的道長(zhǎng)褒颈。 經(jīng)常有香客問(wèn)我柒巫,道長(zhǎng),這世上最難降的妖魔是什么谷丸? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,322評(píng)論 1 293
  • 正文 為了忘掉前任堡掏,我火速辦了婚禮,結(jié)果婚禮上刨疼,老公的妹妹穿的比我還像新娘泉唁。我一直安慰自己,他們只是感情好揩慕,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,370評(píng)論 6 390
  • 文/花漫 我一把揭開(kāi)白布亭畜。 她就那樣靜靜地躺著,像睡著了一般漩绵。 火紅的嫁衣襯著肌膚如雪贱案。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 51,274評(píng)論 1 300
  • 那天止吐,我揣著相機(jī)與錄音宝踪,去河邊找鬼。 笑死碍扔,一個(gè)胖子當(dāng)著我的面吹牛瘩燥,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播不同,決...
    沈念sama閱讀 40,126評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼厉膀,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了二拐?” 一聲冷哼從身側(cè)響起服鹅,我...
    開(kāi)封第一講書(shū)人閱讀 38,980評(píng)論 0 275
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎百新,沒(méi)想到半個(gè)月后企软,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,414評(píng)論 1 313
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡饭望,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,599評(píng)論 3 334
  • 正文 我和宋清朗相戀三年仗哨,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片铅辞。...
    茶點(diǎn)故事閱讀 39,773評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡厌漂,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出斟珊,到底是詐尸還是另有隱情苇倡,我是刑警寧澤,帶...
    沈念sama閱讀 35,470評(píng)論 5 344
  • 正文 年R本政府宣布,位于F島的核電站雏节,受9級(jí)特大地震影響胜嗓,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜钩乍,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,080評(píng)論 3 327
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望怔锌。 院中可真熱鬧寥粹,春花似錦、人聲如沸埃元。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,713評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)岛杀。三九已至阔拳,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間类嗤,已是汗流浹背糊肠。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,852評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留遗锣,地道東北人货裹。 一個(gè)月前我還...
    沈念sama閱讀 47,865評(píng)論 2 370
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像精偿,于是被迫代替她去往敵國(guó)和親弧圆。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,689評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容

  • 早晨,起床后不太高興叶组。然后一會(huì)兒又好了拯田,沒(méi)由來(lái)的氣,和糊里糊涂的恢復(fù)平和狀態(tài)扶叉。事后想想很像孩子一樣缺少自控能力勿锅,嘟...
    長(zhǎng)腿喵兒閱讀 153評(píng)論 0 0
  • 聽(tīng)很多媽媽們溢十,常掛在嘴邊的就是,這孩子不訓(xùn)不行达吞,大打不行张弛,就是欠教訓(xùn)。當(dāng)然大多數(shù)時(shí)候,揍的少吞鸭,訓(xùn)的多寺董,自己生的孩子...
    媛來(lái)似你yy閱讀 827評(píng)論 0 5