深度學(xué)習(xí) | 卷積神經(jīng)網(wǎng)絡(luò)CNN

深度學(xué)習(xí) | 卷積神經(jīng)網(wǎng)絡(luò)CNN

LeNET算法實現(xiàn)

# -*- coding: UTF-8 -*-

import numpy as np
import tensorflow as tf

from tensorflow.examples.tutorials.mnist import input_data

def get_variable(name, shape=None, dtype=tf.float32, initializer=tf.random_normal_initializer(mean=0, stddev=0.1)):
    return tf.get_variable(name, shape, dtype, initializer)

# 構(gòu)建LeNet
def le_net(x, y):
    # 輸入層
    with tf.variable_scope('input'):
        # [None, input_size] -> [None, height, weight, channels]
        net = tf.reshape(x, shape=[-1, 28, 28, 1])

    # 卷積層
    with tf.variable_scope('conv2'):
        net = tf.nn.conv2d(input=net, filter=get_variable('w', [5, 5, 1, 20]), strides=[1, 1, 1, 1], padding='SAME')
        net = tf.nn.bias_add(net, get_variable('b', [20]))
        net = tf.nn.relu(net)

    # 池化層
    with tf.variable_scope('pool3'):
        net = tf.nn.max_pool(value=net, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')

    # 卷積層
    with tf.variable_scope('conv4'):
        net = tf.nn.conv2d(input=net, filter=get_variable('w', [5, 5, 20, 50]), strides=[1, 1, 1, 1], padding='SAME')
        net = tf.nn.bias_add(net, get_variable('b', [50]))
        net = tf.nn.relu(net)

    # 池化層
    with tf.variable_scope('pool5'):
        net = tf.nn.max_pool(value=net, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')

    # 全連接層
    with tf.variable_scope('fc6'):
        net = tf.reshape(net, shape=[-1, 7 * 7 * 50])
        net = tf.add(tf.matmul(net, get_variable('w', [7 * 7 * 50, 500])), get_variable('b', [500]))
        net = tf.nn.relu(net)

    # 全連接層
    with tf.variable_scope('fc7'):
        net = tf.add(tf.matmul(net, get_variable('w', [500, classes_size])), get_variable('b', [classes_size]))
        actual = tf.nn.softmax(net)
    return actual

if __name__ == '__main__':
    mnist = input_data.read_data_sets('../../data', one_hot=True)

    train_images = mnist.train.images
    train_labels = mnist.train.labels

    learn_rate = 1e-2

    input_size = train_images.shape[1]
    classes_size = train_labels.shape[1]

    x = tf.placeholder(tf.float32, shape=[None, input_size], name='x')
    y = tf.placeholder(tf.float32, shape=[None, classes_size], name='y')

    actual = le_net(x, y)
    loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=actual, labels=y))
    train = tf.train.AdamOptimizer(learning_rate=learn_rate).minimize(loss)
    predict = tf.equal(tf.argmax(actual, axis=1), tf.argmax(y, axis=1))
    accuracy = tf.reduce_mean(tf.cast(predict, tf.float32))

    init = tf.global_variables_initializer()
    batch_size = 10
    display_step = 4
    with tf.Session() as session:
        session.run(init)

        # 模型保存
        saver = tf.train.Saver()
        epoch = 0
        while True:
            avg_cost = 0
            total_batch = int(mnist.train.num_examples / batch_size)
            for i in range(total_batch):
                batch_xs, batch_ys = mnist.train.next_batch(batch_size)
                feeds = {x: batch_xs, y: batch_ys}
                session.run(train, feed_dict=feeds)
                avg_cost += session.run(loss, feed_dict=feeds)
            avg_cost = avg_cost / total_batch

            if (epoch + 1) % display_step == 0:
                print('次數(shù):%03d 損失函數(shù)值:%.9f' % (epoch, avg_cost))
                feeds = {x: mnist.train.images, y: mnist.train.labels}
                train_accuracy = session.run(accuracy, feed_dict=feeds)
                print('訓(xùn)練集準(zhǔn)確率:%.3f' % train_accuracy)

                feeds = {x: mnist.test.images, y: mnist.test.labels}
                test_accuracy = session.run(accuracy, feed_dict=feeds)
                print('測試集準(zhǔn)確率:%.3f' % test_accuracy)

                if train_accuracy > 0.90 and test_accuracy > 0.90:
                    saver.save(session, 'mnist/model')
                    break
            epoch += 1
        writer = tf.summary.FileWriter('mnist/graph', tf.get_default_graph())
        writer.close()
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末杆怕,一起剝皮案震驚了整個濱河市族购,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌陵珍,老刑警劉巖寝杖,帶你破解...
    沈念sama閱讀 219,110評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異撑教,居然都是意外死亡朝墩,警方通過查閱死者的電腦和手機(jī)醉拓,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,443評論 3 395
  • 文/潘曉璐 我一進(jìn)店門伟姐,熙熙樓的掌柜王于貴愁眉苦臉地迎上來收苏,“玉大人,你說我怎么就攤上這事愤兵÷拱裕” “怎么了?”我有些...
    開封第一講書人閱讀 165,474評論 0 356
  • 文/不壞的土叔 我叫張陵秆乳,是天一觀的道長懦鼠。 經(jīng)常有香客問我,道長屹堰,這世上最難降的妖魔是什么肛冶? 我笑而不...
    開封第一講書人閱讀 58,881評論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮扯键,結(jié)果婚禮上睦袖,老公的妹妹穿的比我還像新娘。我一直安慰自己荣刑,他們只是感情好馅笙,可當(dāng)我...
    茶點故事閱讀 67,902評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著厉亏,像睡著了一般董习。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上爱只,一...
    開封第一講書人閱讀 51,698評論 1 305
  • 那天皿淋,我揣著相機(jī)與錄音,去河邊找鬼恬试。 笑死沥匈,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的忘渔。 我是一名探鬼主播高帖,決...
    沈念sama閱讀 40,418評論 3 419
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼畦粮!你這毒婦竟也來了散址?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,332評論 0 276
  • 序言:老撾萬榮一對情侶失蹤宣赔,失蹤者是張志新(化名)和其女友劉穎预麸,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體儒将,經(jīng)...
    沈念sama閱讀 45,796評論 1 316
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡吏祸,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,968評論 3 337
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了钩蚊。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片贡翘。...
    茶點故事閱讀 40,110評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡蹈矮,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出鸣驱,到底是詐尸還是另有隱情泛鸟,我是刑警寧澤,帶...
    沈念sama閱讀 35,792評論 5 346
  • 正文 年R本政府宣布踊东,位于F島的核電站北滥,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏闸翅。R本人自食惡果不足惜再芋,卻給世界環(huán)境...
    茶點故事閱讀 41,455評論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望坚冀。 院中可真熱鬧祝闻,春花似錦、人聲如沸遗菠。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,003評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽辙纬。三九已至豁遭,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間贺拣,已是汗流浹背蓖谢。 一陣腳步聲響...
    開封第一講書人閱讀 33,130評論 1 272
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留譬涡,地道東北人闪幽。 一個月前我還...
    沈念sama閱讀 48,348評論 3 373
  • 正文 我出身青樓,卻偏偏與公主長得像涡匀,于是被迫代替她去往敵國和親盯腌。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,047評論 2 355

推薦閱讀更多精彩內(nèi)容