TensorFlow實(shí)現(xiàn)簡單的MNIST手寫數(shù)字識(shí)別問題

1.單層神經(jīng)網(wǎng)絡(luò)
#從TensorFlow中導(dǎo)入MNIST數(shù)據(jù)集
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data",one_hot=True) 
#定義變量
x = tf.placeholder(tf.float32,[None,784])
y_ = tf.placeholder(tf.float32,[None,10])
#創(chuàng)建神經(jīng)網(wǎng)格
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x,W) + b)
#二次代價(jià)函數(shù)
loss = tf.reduce_mean(tf.square(y_ - y))
#梯度下降法
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
#初始化變量
init = tf.global_variables_initializer()
#求準(zhǔn)確率
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
with tf.Session() as sess:
    sess.run(init)
#對(duì)55000個(gè)訓(xùn)練數(shù)據(jù)進(jìn)行21次訓(xùn)練
    for n in range(21):
        for i in range(550):
            batch_xs,batch_ys=mnist.train.next_batch(100)
            sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys})
            acc=sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels})
        print("Iter " + str(n)+",Testing Accuracy "+str(acc))
  • 通過以上的代碼可以在測(cè)試數(shù)據(jù)上平均達(dá)到92% 的準(zhǔn)確率
2.增加一個(gè)隱藏層
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data",one_hot=True) 
#每個(gè)批次的大小
batch_size = 100
#計(jì)算一共有多少個(gè)批次
n_batch = mnist.train.num_examples//batch_size
#定義幾個(gè)placeholder
x = tf.placeholder(tf.float32,[None,784])
y_ = tf.placeholder(tf.float32,[None,10])
#keep_prob = tf.placeholder(tf.float32)
#創(chuàng)建一個(gè)含隱藏層的神經(jīng)網(wǎng)絡(luò)
w1 = tf.Variable(tf.truncated_normal([784,300],stddev=0.1))
w2 = tf.Variable(tf.zeros([300,10]))
b1 =tf.Variable(tf.zeros([300]))
b2 =tf.Variable(tf.zeros([10]))
L1=tf.nn.relu(tf.matmul(x,w1)+b1)
y =tf.nn.softmax(tf.matmul(L1,w2)+b2)
#二次代價(jià)函數(shù)
loss=tf.reduce_mean(tf.square(y_ - y))
#使用梯度下降法
train_step=tf.train.GradientDescentOptimizer(0.5).minimize(loss)
#初始化變量
init=tf.global_variables_initializer()
#結(jié)果存放在一個(gè)布爾型列表中
correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
#求準(zhǔn)確率
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
with tf.Session() as sess:
    sess.run(init)
    for epoch in range(21):
        for batch in range(n_batch):
            batch_xs,batch_ys=mnist.train.next_batch(batch_size)
            sess.run(train_step,feed_dict=({x:batch_xs,y_:batch_ys}))
        acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels})
        print("Iter " + str(epoch)+",Testing Accuracy "+str(acc))
  • 其它條件不變日戈,只增加一個(gè)隱藏層另凌,訓(xùn)練21次可以達(dá)到95%左右的準(zhǔn)確率谱轨,訓(xùn)練200次可以達(dá)到接近98% 的準(zhǔn)確率。
  • 事實(shí)上吠谢,現(xiàn)在的Softmax Regression加入隱含層變成一個(gè)正統(tǒng)的神經(jīng)網(wǎng)絡(luò)后土童,再結(jié)合Dropout、Adagrad工坊、ReLU等技術(shù)準(zhǔn)確率可以達(dá)到98%献汗。引入卷積層、池化層后王污,也可以達(dá)到99%的正確率罢吃。而目前基于卷積神經(jīng)網(wǎng)絡(luò)的state-of-the-art的方法已經(jīng)可以達(dá)到99.8%的正確率。
    引用:《TensorFlow實(shí)戰(zhàn)》
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末昭齐,一起剝皮案震驚了整個(gè)濱河市尿招,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌阱驾,老刑警劉巖就谜,帶你破解...
    沈念sama閱讀 219,110評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異里覆,居然都是意外死亡丧荐,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,443評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門喧枷,熙熙樓的掌柜王于貴愁眉苦臉地迎上來虹统,“玉大人弓坞,你說我怎么就攤上這事】呷矗” “怎么了昼丑?”我有些...
    開封第一講書人閱讀 165,474評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長夸赫。 經(jīng)常有香客問我菩帝,道長,這世上最難降的妖魔是什么茬腿? 我笑而不...
    開封第一講書人閱讀 58,881評(píng)論 1 295
  • 正文 為了忘掉前任呼奢,我火速辦了婚禮,結(jié)果婚禮上切平,老公的妹妹穿的比我還像新娘握础。我一直安慰自己,他們只是感情好悴品,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,902評(píng)論 6 392
  • 文/花漫 我一把揭開白布禀综。 她就那樣靜靜地躺著,像睡著了一般苔严。 火紅的嫁衣襯著肌膚如雪定枷。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,698評(píng)論 1 305
  • 那天届氢,我揣著相機(jī)與錄音欠窒,去河邊找鬼。 笑死退子,一個(gè)胖子當(dāng)著我的面吹牛岖妄,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播寂祥,決...
    沈念sama閱讀 40,418評(píng)論 3 419
  • 文/蒼蘭香墨 我猛地睜開眼荐虐,長吁一口氣:“原來是場噩夢(mèng)啊……” “哼!你這毒婦竟也來了丸凭?” 一聲冷哼從身側(cè)響起福扬,我...
    開封第一講書人閱讀 39,332評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎贮乳,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體恬惯,經(jīng)...
    沈念sama閱讀 45,796評(píng)論 1 316
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡向拆,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,968評(píng)論 3 337
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了酪耳。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片浓恳。...
    茶點(diǎn)故事閱讀 40,110評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡刹缝,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出颈将,到底是詐尸還是另有隱情梢夯,我是刑警寧澤,帶...
    沈念sama閱讀 35,792評(píng)論 5 346
  • 正文 年R本政府宣布晴圾,位于F島的核電站颂砸,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏死姚。R本人自食惡果不足惜人乓,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,455評(píng)論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望都毒。 院中可真熱鬧色罚,春花似錦、人聲如沸账劲。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,003評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽瀑焦。三九已至腌且,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間蝠猬,已是汗流浹背切蟋。 一陣腳步聲響...
    開封第一講書人閱讀 33,130評(píng)論 1 272
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留榆芦,地道東北人柄粹。 一個(gè)月前我還...
    沈念sama閱讀 48,348評(píng)論 3 373
  • 正文 我出身青樓,卻偏偏與公主長得像匆绣,于是被迫代替她去往敵國和親驻右。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,047評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容