2020-03-29

基于Tensorflow-gpu的mnist手寫(xiě)數(shù)字識(shí)別(卷積神經(jīng)網(wǎng)絡(luò)CNN)-學(xué)習(xí)筆記(一)


一、構(gòu)建模型

from __future__import absolute_import, division, print_function, unicode_literals

import tensorflow as tf

from tensorflow.keras.layersimport Dense, Flatten, Conv2D

from tensorflow.kerasimport Model

gpus = tf.config.experimental.list_physical_devices('GPU')##獲取可用GPU

for gpu in (gpus):

?tf.config.experimental.set_memory_growth(gpu, True)##設(shè)置顯存使用方式

(x_train, y_train), (x_test, y_test) = tf.keras.datasets.mnist.load_data()

x_train, x_test = x_train /255.0, x_test /255.0 ##數(shù)據(jù)預(yù)處理歸一化

x_train = x_train[..., tf.newaxis]##增加一個(gè)通道維數(shù)

x_test = x_test[..., tf.newaxis]

train_set = tf.data.Dataset.from_tensor_slices((x_train, y_train)).shuffle(10000).batch(32)##切分?jǐn)?shù)據(jù)集為BatchDataset尼桶,混淆數(shù)據(jù)集

test_set = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)

class MyModel(Model):##網(wǎng)絡(luò)模型定義

? def __init__(self):

? super(MyModel, self).__init__()

? self.conv1 = Conv2D(32, 3, activation='relu')

? self.flatten = Flatten()

? self.d1 = Dense(128, activation='relu')

? self.d2 = Dense(10, activation='softmax')

def __call__(self, x):

? x =self.conv1(x)

? x =self.flatten(x)

? x =self.d1(x)

? return self.d2(x)

mynetwork = MyModel()

loss_object = tf.keras.losses.SparseCategoricalCrossentropy()##損失函數(shù)定義

optimizer = tf.keras.optimizers.Adam()##優(yōu)化器定義

train_loss = tf.keras.metrics.Mean(name='train_loss')##損失值

train_accuracy = tf.keras.metrics.SparseCategoricalAccuracy(name='train_accuracy')##準(zhǔn)確率

test_loss = tf.keras.metrics.Mean(name='test_loss')

test_accuracy = tf.keras.metrics.SparseCategoricalAccuracy(name='test_accuracy')

@tf.function ##訓(xùn)練

def train_step(images, labels):

? with tf.GradientTape()as tape:

???? predictions = mynetwork(images)

??? loss = loss_object(labels, predictions)

? gradients = tape.gradient(loss, mynetwork.trainable_variables)

? optimizer.apply_gradients(zip(gradients, mynetwork.trainable_variables))

? train_loss(loss)

? train_accuracy(labels, predictions)

@tf.function ##測(cè)試

def test_step(images, labels):

? ?? predictions = mynetwork(images)

? ?? ? t_loss = loss_object(labels, predictions)

?test_loss(t_loss)

?test_accuracy(labels, predictions)

for epochin range(5):

# 在下一個(gè)epoch開(kāi)始時(shí),重置評(píng)估指標(biāo)

? ? train_loss.reset_states()

??? train_accuracy.reset_states()

??? test_loss.reset_states()

??? test_accuracy.reset_states()

??? for images, labelsin train_set:

????? train_step(images, labels)

???? for test_images, test_labelsin test_set:

????? test_step(test_images, test_labels)

template ='Epoch {}, Loss: {}, Accuracy: {}, Test Loss: {}, Test Accuracy: {}'

print(template.format(epoch+1,

? ? ? ? ? ? ? ? ? ? ? ? train_loss.result(),

? ? ? ? ? ? ? ? ? ? ? ? train_accuracy.result()*100,

? ? ? ? ? ? ? ? ? ? ? ? test_loss.result(),

? ? ? ? ? ? ? ? ? ? ? ? test_accuracy.result()*100))

二堤魁、預(yù)測(cè)結(jié)果

可以看到耕魄,5個(gè)epoch后準(zhǔn)確率已經(jīng)非常高

摘自:針對(duì)專業(yè)人員的 TensorFlow 2.0 入門(mén) ?|? TensorFlow Core

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末晨川,一起剝皮案震驚了整個(gè)濱河市节沦,隨后出現(xiàn)的幾起案子键思,更是在濱河造成了極大的恐慌,老刑警劉巖甫贯,帶你破解...
    沈念sama閱讀 217,734評(píng)論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異看蚜,居然都是意外死亡叫搁,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,931評(píng)論 3 394
  • 文/潘曉璐 我一進(jìn)店門(mén)供炎,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)渴逻,“玉大人,你說(shuō)我怎么就攤上這事音诫〔肄龋” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 164,133評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵竭钝,是天一觀的道長(zhǎng)梨撞。 經(jīng)常有香客問(wèn)我,道長(zhǎng)香罐,這世上最難降的妖魔是什么卧波? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,532評(píng)論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮庇茫,結(jié)果婚禮上港粱,老公的妹妹穿的比我還像新娘。我一直安慰自己旦签,他們只是感情好查坪,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,585評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著宁炫,像睡著了一般偿曙。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上淋淀,一...
    開(kāi)封第一講書(shū)人閱讀 51,462評(píng)論 1 302
  • 那天遥昧,我揣著相機(jī)與錄音,去河邊找鬼朵纷。 笑死炭臭,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的袍辞。 我是一名探鬼主播鞋仍,決...
    沈念sama閱讀 40,262評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼搅吁!你這毒婦竟也來(lái)了威创?” 一聲冷哼從身側(cè)響起落午,我...
    開(kāi)封第一講書(shū)人閱讀 39,153評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎肚豺,沒(méi)想到半個(gè)月后溃斋,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,587評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡吸申,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,792評(píng)論 3 336
  • 正文 我和宋清朗相戀三年梗劫,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片截碴。...
    茶點(diǎn)故事閱讀 39,919評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡梳侨,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出日丹,到底是詐尸還是另有隱情走哺,我是刑警寧澤,帶...
    沈念sama閱讀 35,635評(píng)論 5 345
  • 正文 年R本政府宣布哲虾,位于F島的核電站丙躏,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏妒牙。R本人自食惡果不足惜彼哼,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,237評(píng)論 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望湘今。 院中可真熱鬧敢朱,春花似錦、人聲如沸摩瞎。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,855評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)旗们。三九已至蚓哩,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間上渴,已是汗流浹背岸梨。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,983評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留稠氮,地道東北人曹阔。 一個(gè)月前我還...
    沈念sama閱讀 48,048評(píng)論 3 370
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像隔披,于是被迫代替她去往敵國(guó)和親赃份。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,864評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容