基于MNIST實(shí)現(xiàn)字符識別

說明

  1. 這是一個關(guān)于TensorFlow的基礎(chǔ)教程
  2. 本任務(wù)主要是基于TensorFlow實(shí)現(xiàn)對于MNIST數(shù)據(jù)集的處理
  3. 通過本任務(wù)狰贯,希望大家能夠了解TensorFlow構(gòu)建神經(jīng)網(wǎng)絡(luò)的大致過程
  4. MNIST數(shù)據(jù)集展示
    mnist數(shù)據(jù)集

訓(xùn)練過程

  1. 導(dǎo)入相關(guān)包以及載入數(shù)據(jù)
    導(dǎo)入數(shù)據(jù)
  2. 查看樣本數(shù)據(jù)
    數(shù)據(jù)查驗(yàn)
  3. 查看多個數(shù)據(jù)
    多樣本查驗(yàn)
  4. 數(shù)據(jù)歸一化(深度學(xué)習(xí)模型處理 0 至 1 之間的數(shù)字時更加得心應(yīng)手(后面會有詳細(xì)介紹)贾费,所以我們會取全部像素值爽篷,并用每個值除以 255动猬。我們將此過程稱為歸一化。)
    特征歸一化
  5. 標(biāo)簽序列化(將標(biāo)量轉(zhuǎn)換成向量):
    標(biāo)簽序列化
  6. 搭建模型
    搭建模型
  7. 模型編譯
    模型編譯
  8. 模型訓(xùn)練
    模型訓(xùn)練

完整代碼

# ===========導(dǎo)入數(shù)據(jù)集==========
from tensorflow.keras.datasets import mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()

# ==========查看數(shù)據(jù)=========
import matplotlib.pyplot as plt
image = x_train[0]
label = y_train[0]
plt.imshow(image, cmap="gray")
plt.title(label, fontdict={'fontsize': 30})

# ==========數(shù)據(jù)預(yù)處理(歸一化)==========
## 以下兩種方式等價(第一個是具體公式,第二個是簡便寫法)
x_train = (x_train - x_train.min()) / (x_train.max() - x_train.min())
x_test = x_test / 255

# ==========對標(biāo)簽進(jìn)行多分類編碼(變量轉(zhuǎn)向量)==========
import tensorflow.keras as keras
print("format y_train[0] is ", y_train[0])
num_categories = 10   # 0~9一共有10個數(shù)字
# 將標(biāo)量轉(zhuǎn)換成向量
y_train = keras.utils.to_categorical(y_train, num_categories)
y_test = keras.utils.to_categorical(y_test, num_categories)
print("after encoding, y_train[0] is ", y_train[0])

# ===============創(chuàng)建模型==================
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
model = Sequential()
# 輸入層
"""
units參數(shù)指定該層中神經(jīng)元的數(shù)量。 這里使用512还栓,這是一個很好的起始值。也可以稍后修改此值來查看它如何影響訓(xùn)練結(jié)果传轰。
activation:激活函數(shù)剩盒,這里將使用relu激勵函數(shù),它將幫助我們的網(wǎng)絡(luò)做出比使用線性激勵函數(shù)更為復(fù)雜的預(yù)測
input_shape值指定輸入數(shù)據(jù)的形狀/維度慨蛙。
"""
model.add(Dense(units=512, activation='relu', input_shape=(784,)))  # 輸入變量有784維
# 隱藏層
model.add(Dense(units = 512, activation='relu'))
# 輸出層
"""
該層使用softmax激勵函數(shù)辽聊,該函數(shù)將使該層的每個輸出值是0到1之間的概率值纪挎,并且該層的所有輸出相加等于1。
在這種情況下身隐,由于網(wǎng)絡(luò)要對一個圖像屬于0到9中的一個進(jìn)行預(yù)測廷区,所以一共有10個輸出唯灵,每個輸出都會給出模型對圖像屬于某個類的猜測值(概率)
因此贾铝,softmax較適用于需要分類的應(yīng)用場景。
"""
model.add(Dense(units = 10, activation='softmax'))     # 輸出有10個類別埠帕,激活函數(shù)使用softmax
# 模型總結(jié)
model.summary()

# ==========模型編譯==========
"""
在實(shí)際使用數(shù)據(jù)訓(xùn)練模型之前垢揩,我們需要做的最后一步是對模型進(jìn)行編譯。
在這里敛瓷,我們要指定一個損失函數(shù)叁巨,模型將用該函數(shù)來了解其在訓(xùn)練過程中的表現(xiàn)。我們還要指定在模型訓(xùn)練時我們將要跟蹤準(zhǔn)確率
"""
model.compile(loss='categorical_crossentropy', metrics=['accuracy'])

# ==========訓(xùn)練模型==========
"""
x_train, y_train:分別是訓(xùn)練數(shù)據(jù)和訓(xùn)練標(biāo)簽呐籽;
epochs:表示在整個訓(xùn)練數(shù)據(jù)集上進(jìn)行訓(xùn)練的次數(shù)锋勺;
verbose=1:顯示訓(xùn)練過程和日志信息
validation_data:校驗(yàn)數(shù)據(jù),每一個訓(xùn)練完模型都會使用校驗(yàn)數(shù)據(jù)進(jìn)行檢查
"""
model.fit(x_train, y_train, 
          epochs=5,
          verbose=1,
          validation_data=(x_test, y_test)
         )

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末狡蝶,一起剝皮案震驚了整個濱河市庶橱,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌贪惹,老刑警劉巖苏章,帶你破解...
    沈念sama閱讀 218,036評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異奏瞬,居然都是意外死亡枫绅,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,046評論 3 395
  • 文/潘曉璐 我一進(jìn)店門硼端,熙熙樓的掌柜王于貴愁眉苦臉地迎上來并淋,“玉大人,你說我怎么就攤上這事珍昨≡に牛” “怎么了?”我有些...
    開封第一講書人閱讀 164,411評論 0 354
  • 文/不壞的土叔 我叫張陵曼尊,是天一觀的道長酬诀。 經(jīng)常有香客問我,道長骆撇,這世上最難降的妖魔是什么瞒御? 我笑而不...
    開封第一講書人閱讀 58,622評論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮神郊,結(jié)果婚禮上肴裙,老公的妹妹穿的比我還像新娘趾唱。我一直安慰自己,他們只是感情好蜻懦,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,661評論 6 392
  • 文/花漫 我一把揭開白布甜癞。 她就那樣靜靜地躺著,像睡著了一般宛乃。 火紅的嫁衣襯著肌膚如雪悠咱。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,521評論 1 304
  • 那天征炼,我揣著相機(jī)與錄音析既,去河邊找鬼。 笑死谆奥,一個胖子當(dāng)著我的面吹牛眼坏,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播酸些,決...
    沈念sama閱讀 40,288評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼宰译,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了魄懂?” 一聲冷哼從身側(cè)響起沿侈,我...
    開封第一講書人閱讀 39,200評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎逢渔,沒想到半個月后肋坚,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,644評論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡肃廓,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,837評論 3 336
  • 正文 我和宋清朗相戀三年智厌,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片盲赊。...
    茶點(diǎn)故事閱讀 39,953評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡铣鹏,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出哀蘑,到底是詐尸還是另有隱情诚卸,我是刑警寧澤,帶...
    沈念sama閱讀 35,673評論 5 346
  • 正文 年R本政府宣布绘迁,位于F島的核電站合溺,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏缀台。R本人自食惡果不足惜棠赛,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,281評論 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧睛约,春花似錦鼎俘、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,889評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至怔揩,卻和暖如春捉邢,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背沧踏。 一陣腳步聲響...
    開封第一講書人閱讀 33,011評論 1 269
  • 我被黑心中介騙來泰國打工歌逢, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留巾钉,地道東北人翘狱。 一個月前我還...
    沈念sama閱讀 48,119評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像砰苍,于是被迫代替她去往敵國和親潦匈。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,901評論 2 355

推薦閱讀更多精彩內(nèi)容