tf8.mnist分類學(xué)習(xí)

import sys
print(sys.version)
'''
3.5.3 |Continuum Analytics, Inc.| (default, May 15 2017, 10:43:23) [MSC v.1900 64 bit (AMD64)]
'''
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
# number 1 to 10 data
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)

def add_layer(inputs, in_size, out_size, activation_function=None,):
    # add one more layer and return the output of this layer
    Weights = tf.Variable(tf.random_normal([in_size, out_size]))
    biases = tf.Variable(tf.zeros([1, out_size]) + 0.1,)
    Wx_plus_b = tf.matmul(inputs, Weights) + biases
    if activation_function is None:
        outputs = Wx_plus_b
    else:
        outputs = activation_function(Wx_plus_b,)
    return outputs

def compute_accuracy(v_xs, v_ys):
    global prediction
    y_pre = sess.run(prediction, feed_dict={xs: v_xs})
    correct_prediction = tf.equal(tf.argmax(y_pre,1), tf.argmax(v_ys,1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    result = sess.run(accuracy, feed_dict={xs: v_xs, ys: v_ys})
    return result

# define placeholder for inputs to network
xs = tf.placeholder(tf.float32, [None, 784]) # 28x28
ys = tf.placeholder(tf.float32, [None, 10])

# add output layer
prediction = add_layer(xs, 784, 10,  activation_function=tf.nn.softmax)

# the error between prediction and real data
cross_entropy = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(prediction),
                                              reduction_indices=[1]))       # loss
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)

sess = tf.Session()
# important step
# tf.initialize_all_variables() no long valid from
# 2017-03-02 if using tensorflow >= 0.12
if int((tf.__version__).split('.')[1]) < 12 and int((tf.__version__).split('.')[0]) < 1:
    init = tf.initialize_all_variables()
else:
    init = tf.global_variables_initializer()
sess.run(init)

for i in range(1000):
    batch_xs, batch_ys = mnist.train.next_batch(100)#選區(qū)100個(gè)嘲恍,快速足画,不一定比全部數(shù)據(jù)訓(xùn)練要差
    sess.run(train_step, feed_dict={xs: batch_xs, ys: batch_ys})
    if i % 50 == 0:
        print(compute_accuracy(
            mnist.test.images, mnist.test.labels))

輸出

3.5.3 |Continuum Analytics, Inc.| (default, May 15 2017, 10:43:23) [MSC v.1900 64 bit (AMD64)]
Extracting MNIST_data\train-images-idx3-ubyte.gz
Extracting MNIST_data\train-labels-idx1-ubyte.gz
Extracting MNIST_data\t10k-images-idx3-ubyte.gz
Extracting MNIST_data\t10k-labels-idx1-ubyte.gz
0.1497
0.6214
0.7387
0.7791
0.804
0.8215
0.83
0.8392
0.8452
0.8419
0.8501
0.8523
0.8607
0.864
0.8671
0.8692
0.8697
0.8723
0.8738
0.8751
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市蛔钙,隨后出現(xiàn)的幾起案子锌云,更是在濱河造成了極大的恐慌荠医,老刑警劉巖吁脱,帶你破解...
    沈念sama閱讀 216,544評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件桑涎,死亡現(xiàn)場離奇詭異,居然都是意外死亡兼贡,警方通過查閱死者的電腦和手機(jī)攻冷,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,430評論 3 392
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來遍希,“玉大人等曼,你說我怎么就攤上這事≡渌猓” “怎么了禁谦?”我有些...
    開封第一講書人閱讀 162,764評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長废封。 經(jīng)常有香客問我州泊,道長,這世上最難降的妖魔是什么漂洋? 我笑而不...
    開封第一講書人閱讀 58,193評論 1 292
  • 正文 為了忘掉前任遥皂,我火速辦了婚禮,結(jié)果婚禮上刽漂,老公的妹妹穿的比我還像新娘演训。我一直安慰自己,他們只是感情好贝咙,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,216評論 6 388
  • 文/花漫 我一把揭開白布样悟。 她就那樣靜靜地躺著,像睡著了一般庭猩。 火紅的嫁衣襯著肌膚如雪乌奇。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,182評論 1 299
  • 那天眯娱,我揣著相機(jī)與錄音礁苗,去河邊找鬼。 笑死徙缴,一個(gè)胖子當(dāng)著我的面吹牛试伙,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播于样,決...
    沈念sama閱讀 40,063評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼疏叨,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了穿剖?” 一聲冷哼從身側(cè)響起蚤蔓,我...
    開封第一講書人閱讀 38,917評論 0 274
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎糊余,沒想到半個(gè)月后秀又,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體单寂,經(jīng)...
    沈念sama閱讀 45,329評論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,543評論 2 332
  • 正文 我和宋清朗相戀三年吐辙,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了宣决。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,722評論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡昏苏,死狀恐怖尊沸,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情贤惯,我是刑警寧澤洼专,帶...
    沈念sama閱讀 35,425評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站孵构,受9級特大地震影響壶熏,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜浦译,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,019評論 3 326
  • 文/蒙蒙 一棒假、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧精盅,春花似錦帽哑、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,671評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至粘驰,卻和暖如春屡谐,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背蝌数。 一陣腳步聲響...
    開封第一講書人閱讀 32,825評論 1 269
  • 我被黑心中介騙來泰國打工愕掏, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人顶伞。 一個(gè)月前我還...
    沈念sama閱讀 47,729評論 2 368
  • 正文 我出身青樓饵撑,卻偏偏與公主長得像,于是被迫代替她去往敵國和親唆貌。 傳聞我的和親對象是個(gè)殘疾皇子滑潘,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,614評論 2 353

推薦閱讀更多精彩內(nèi)容