Tensorflow保存訓(xùn)練結(jié)果

demo

  • 訓(xùn)練&保存
# -*- coding: utf-8 -*-
import tensorflow as tf
import input_data
mnist = input_data.read_data_sets('./訓(xùn)練集', one_hot=True)


'''
    # 構(gòu)建運算圖
'''
# X Y 都是占位符 占位而已 不表示具體的數(shù)據(jù)
x = tf.placeholder("float", [None, 784],name='x')  # 圖像的大小為784;None表示第一個維度可以是任意長度

# 一個Variable代表一個可修改的張量,它們可以用于計算輸入值卧蜓,也可以在計算中被修改
W = tf.Variable(tf.zeros([784, 10]),name = 'W')
b = tf.Variable(tf.zeros([10]),name = 'b')

y = tf.nn.softmax(tf.matmul(x, W) + b,name = 'y')

# 計算交叉熵
y_ = tf.placeholder("float", [None, 10],name = 'y_')
cross_entropy = -tf.reduce_sum(y_ * tf.log(tf.clip_by_value(y, 1e-10, 1.0)))

# 梯度下降算法(gradient descent algorithm)

train_step=tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

# 在運行計算之前郊酒,我們需要添加一個操作來初始化我們創(chuàng)建的變量:
init=tf.global_variables_initializer()

# 在一個Session里面啟動我們的模型厢呵,并且初始化變量:
sess=tf.Session()
sess.run(init)
# writer = tf.summary.FileWriter("./logfile",sess.graph)
# 訓(xùn)練模型1000次

for i in range(1000):
  batch_xs, batch_ys=mnist.train.next_batch(100)
  sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

# writer.close()

correct_prediction=tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1),name = 'correct_prediction')
accuracy=tf.reduce_mean(tf.cast(correct_prediction, "float"),name = 'accuracy')
# print('-**-',accuracy,type(accuracy))

print(sess.run(accuracy, feed_dict={
      x: mnist.test.images, y_: mnist.test.labels}))
saver = tf.train.Saver()
saver.save(sess, "./Model/MNIST.ckpt")
  • 提取
    先給出一個錯誤的示范:
# -*- coding: utf-8 -*-
import tensorflow as tf
sess = tf.Session()
saver = tf.train.import_meta_graph('./Model/MNIST.ckpt.meta')
saver.restore(sess, './Model/MNIST.ckpt')

W = tf.get_default_graph().get_tensor_by_name('W:0')
b = tf.get_default_graph().get_tensor_by_name('b:0')

#print(sess.run(W))
#print(sess.run(b))
#print(sess.run(tf.get_default_graph().get_tensor_by_name('y:0'), feed_dict={
#      x: mnist.test.next_batch(10)[0]}),mnist.test.next_batch(10)[1])
print(sess.run(tf.get_default_graph().get_tensor_by_name('accuracy:0'), feed_dict={
      x: mnist.test.images, y_: mnist.test.labels}))

這個會報錯:


0.png

提示x未定義。
我們看一下代碼,在輸入變量feed_dict里面有{x: mnist.test.images}這一句。我們知道定義字典的時候例书,key值必須是一個變量或者是定值。在這里x沒有定義過刻炒。
改為:

# -*- coding: utf-8 -*-
"""
Created on Thu Feb 14 16:04:23 2019

@author: zjp
"""
import input_data
mnist = input_data.read_data_sets('./訓(xùn)練集', one_hot=True)

import tensorflow as tf
sess = tf.Session()
saver = tf.train.import_meta_graph('./Model/MNIST.ckpt.meta')
saver.restore(sess, './Model/MNIST.ckpt')

#W = tf.get_default_graph().get_tensor_by_name('W:0')
#b = tf.get_default_graph().get_tensor_by_name('b:0')
x = tf.get_default_graph().get_tensor_by_name('x:0')
#print(sess.run(W))
#print(sess.run(b))
print(sess.run(tf.get_default_graph().get_tensor_by_name('y:0'), feed_dict={
      x: mnist.test.next_batch(1)[0]}),mnist.test.next_batch(1)[1])
#print(sess.run(tf.get_default_graph().get_tensor_by_name('accuracy:0'), feed_dict={
#      x: mnist.test.images, y_: mnist.test.labels}))

需要注意的是决采,tf.get_default_graph().get_tensor_by_name('y:0')需要3個tf變量,但是除了x之外都不需要顯示定義坟奥。
兩者的正確率一樣树瞭,表示訓(xùn)練成功。

結(jié)果

易犯錯誤

  1. 運行完一次保存變量的腳本之后爱谁,不清除變量就接著運行一次
  2. 上文已經(jīng)提到晒喷,在恢復(fù)變量的時候,如果出現(xiàn)提示'x'未定義之類的访敌,用tf.get_default_graph().get_tensor_by_name('x:0')引入而不可以重新定義一個x = tf.placeholder()凉敲。
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市寺旺,隨后出現(xiàn)的幾起案子爷抓,更是在濱河造成了極大的恐慌,老刑警劉巖迅涮,帶你破解...
    沈念sama閱讀 216,402評論 6 499
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件废赞,死亡現(xiàn)場離奇詭異,居然都是意外死亡叮姑,警方通過查閱死者的電腦和手機唉地,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,377評論 3 392
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來传透,“玉大人耘沼,你說我怎么就攤上這事≈煅危” “怎么了群嗤?”我有些...
    開封第一講書人閱讀 162,483評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長兵琳。 經(jīng)常有香客問我狂秘,道長,這世上最難降的妖魔是什么躯肌? 我笑而不...
    開封第一講書人閱讀 58,165評論 1 292
  • 正文 為了忘掉前任者春,我火速辦了婚禮,結(jié)果婚禮上清女,老公的妹妹穿的比我還像新娘钱烟。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 67,176評論 6 388
  • 文/花漫 我一把揭開白布拴袭。 她就那樣靜靜地躺著读第,像睡著了一般。 火紅的嫁衣襯著肌膚如雪拥刻。 梳的紋絲不亂的頭發(fā)上怜瞒,一...
    開封第一講書人閱讀 51,146評論 1 297
  • 那天,我揣著相機與錄音般哼,去河邊找鬼盼砍。 笑死,一個胖子當著我的面吹牛逝她,可吹牛的內(nèi)容都是我干的浇坐。 我是一名探鬼主播,決...
    沈念sama閱讀 40,032評論 3 417
  • 文/蒼蘭香墨 我猛地睜開眼黔宛,長吁一口氣:“原來是場噩夢啊……” “哼近刘!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起臀晃,我...
    開封第一講書人閱讀 38,896評論 0 274
  • 序言:老撾萬榮一對情侶失蹤觉渴,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后徽惋,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體案淋,經(jīng)...
    沈念sama閱讀 45,311評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,536評論 2 332
  • 正文 我和宋清朗相戀三年险绘,在試婚紗的時候發(fā)現(xiàn)自己被綠了踢京。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,696評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡宦棺,死狀恐怖瓣距,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情代咸,我是刑警寧澤蹈丸,帶...
    沈念sama閱讀 35,413評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站呐芥,受9級特大地震影響逻杖,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜思瘟,卻給世界環(huán)境...
    茶點故事閱讀 41,008評論 3 325
  • 文/蒙蒙 一荸百、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧潮太,春花似錦管搪、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,659評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至奇钞,卻和暖如春澡为,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背景埃。 一陣腳步聲響...
    開封第一講書人閱讀 32,815評論 1 269
  • 我被黑心中介騙來泰國打工媒至, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人谷徙。 一個月前我還...
    沈念sama閱讀 47,698評論 2 368
  • 正文 我出身青樓拒啰,卻偏偏與公主長得像,于是被迫代替她去往敵國和親完慧。 傳聞我的和親對象是個殘疾皇子谋旦,可洞房花燭夜當晚...
    茶點故事閱讀 44,592評論 2 353