2018-04-17 第三周

Mnist數(shù)據(jù)集測(cè)試demo

參考tensorflow官網(wǎng)中的demo:mnist

分析mnist的數(shù)據(jù)集的格式:



28*28的矩陣格式羽杰,1表示該像素點(diǎn)為黑妆够,0代表該像素點(diǎn)為白

然后吏够,導(dǎo)入數(shù)據(jù)集:

import tensorflow as tf

import tensorflow.examples.tutorials.mnist.input_data as input_data

mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

設(shè)置占位符:

因?yàn)?8*28 = 784 所以每次塞入的數(shù)據(jù)是784個(gè)

x = tf.placeholder(tf.float32, [None, 784])#輸入的數(shù)據(jù)占位符

y_actual = tf.placeholder(tf.float32, shape=[None, 10])#輸入的標(biāo)簽占位符

權(quán)重和偏置初始化函數(shù)?

權(quán)重使用的truncated_normal進(jìn)行初始化,stddev標(biāo)準(zhǔn)差定義為0.1

偏置初始化為常量0.1:

'''權(quán)重初始化函數(shù)'''

def weight_variable(shape): inital = tf.truncated_normal(shape, stddev=0.1) # 使用truncated_normal進(jìn)行初始化

????return tf.Variable(inital)

'''偏置初始化函數(shù)'''

def bias_variable(shape): inital = tf.constant(0.1,shape=shape)

# 偏置定義為常量

????return tf.Variable(inital)

卷積函數(shù)?

strides[0]和strides[3]的兩個(gè)1是默認(rèn)值订讼,中間兩個(gè)1代表padding時(shí)在x方向運(yùn)動(dòng)1步赶袄,y方向運(yùn)動(dòng)1步

padding='SAME'代表經(jīng)過(guò)卷積之后的輸出圖像和原圖像大小一樣

#定義一個(gè)函數(shù),用于構(gòu)建卷積層?

def conv2d(x, W):

????return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')

定義池化函數(shù):

def max_pool(x):

? return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],strides=[1, 2, 2, 1], padding='SAME')

構(gòu)建網(wǎng)絡(luò):

#構(gòu)建網(wǎng)絡(luò)

x_image = tf.reshape(x, [-1,28,28,1])? ? ? ? #轉(zhuǎn)換輸入數(shù)據(jù)shape,以便于用于網(wǎng)絡(luò)中

W_conv1 = weight_variable([5, 5, 1, 32])? ? ?

b_conv1 = bias_variable([32])? ? ?

h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)? ? #第一個(gè)卷積層

h_pool1 = max_pool(h_conv1)? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? #第一個(gè)池化層

W_conv2 = weight_variable([5, 5, 32, 64])

b_conv2 = bias_variable([64])

h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)? ? ? #第二個(gè)卷積層

h_pool2 = max_pool(h_conv2)? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? #第二個(gè)池化層

W_fc1 = weight_variable([7 * 7 * 64, 1024])

b_fc1 = bias_variable([1024])

h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])? ? ? ? ? ? ? #reshape成向量

h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)? ? #第一個(gè)全連接層

keep_prob = tf.placeholder("float")

h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)? ? ? ? ? ? ? ? ? #dropout層

W_fc2 = weight_variable([1024, 10])

b_fc2 = bias_variable([10])

y_predict=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)? #softmax層

開(kāi)始訓(xùn)練:

cross_entropy = -tf.reduce_sum(y_actual*tf.log(y_predict)) #交叉熵

train_step = tf.train.GradientDescentOptimizer(1e-3).minimize(cross_entropy)? ? #梯度下降法

correct_prediction = tf.equal(tf.argmax(y_predict,1), tf.argmax(y_actual,1))? ?

accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))? ? ? ? ? ? ? ? #精確度計(jì)算

sess=tf.InteractiveSession()? ? ? ? ? ? ? ? ? ? ? ? ?

sess.run(tf.initialize_all_variables())

for i in range(20000):

? batch = mnist.train.next_batch(50)

? if i%100 == 0:? ? ? ? ? ? ? ? ? #訓(xùn)練100次狸窘,驗(yàn)證一次

? ? train_acc = accuracy.eval(feed_dict={x:batch[0], y_actual: batch[1], keep_prob: 1.0})

? ? print 'step %d, training accuracy %g'%(i,train_acc)

? ? train_step.run(feed_dict={x: batch[0], y_actual: batch[1], keep_prob: 0.5})

test_acc=accuracy.eval(feed_dict={x: mnist.test.images, y_actual: mnist.test.labels, keep_prob: 1.0})

print("test accuracy",test_acc)

運(yùn)行結(jié)果:

效果還算不錯(cuò)。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末坯认,一起剝皮案震驚了整個(gè)濱河市翻擒,隨后出現(xiàn)的幾起案子氓涣,更是在濱河造成了極大的恐慌,老刑警劉巖陋气,帶你破解...
    沈念sama閱讀 216,692評(píng)論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件劳吠,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡恩伺,警方通過(guò)查閱死者的電腦和手機(jī)赴背,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,482評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)晶渠,“玉大人凰荚,你說(shuō)我怎么就攤上這事“” “怎么了便瑟?”我有些...
    開(kāi)封第一講書(shū)人閱讀 162,995評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀(guān)的道長(zhǎng)番川。 經(jīng)常有香客問(wèn)我到涂,道長(zhǎng),這世上最難降的妖魔是什么颁督? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,223評(píng)論 1 292
  • 正文 為了忘掉前任践啄,我火速辦了婚禮,結(jié)果婚禮上沉御,老公的妹妹穿的比我還像新娘屿讽。我一直安慰自己,他們只是感情好吠裆,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,245評(píng)論 6 388
  • 文/花漫 我一把揭開(kāi)白布伐谈。 她就那樣靜靜地躺著,像睡著了一般试疙。 火紅的嫁衣襯著肌膚如雪诵棵。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 51,208評(píng)論 1 299
  • 那天祝旷,我揣著相機(jī)與錄音履澳,去河邊找鬼。 笑死怀跛,一個(gè)胖子當(dāng)著我的面吹牛距贷,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播敌完,決...
    沈念sama閱讀 40,091評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼储耐,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了滨溉?” 一聲冷哼從身側(cè)響起什湘,我...
    開(kāi)封第一講書(shū)人閱讀 38,929評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤长赞,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后闽撤,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體得哆,經(jīng)...
    沈念sama閱讀 45,346評(píng)論 1 311
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,570評(píng)論 2 333
  • 正文 我和宋清朗相戀三年哟旗,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了贩据。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,739評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡闸餐,死狀恐怖饱亮,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情舍沙,我是刑警寧澤近上,帶...
    沈念sama閱讀 35,437評(píng)論 5 344
  • 正文 年R本政府宣布,位于F島的核電站拂铡,受9級(jí)特大地震影響壹无,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜感帅,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,037評(píng)論 3 326
  • 文/蒙蒙 一斗锭、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧失球,春花似錦岖是、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,677評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)作箍。三九已至硬梁,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間胞得,已是汗流浹背荧止。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,833評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留阶剑,地道東北人跃巡。 一個(gè)月前我還...
    沈念sama閱讀 47,760評(píng)論 2 369
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像牧愁,于是被迫代替她去往敵國(guó)和親素邪。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,647評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容