存儲Tensorflow訓(xùn)練網(wǎng)絡(luò)的參數(shù)

訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)的目的是啥?不就是有朝一日讓它有用武之地嗎鸟辅?可是,在別處使用訓(xùn)練好的網(wǎng)絡(luò)莺葫,得先把網(wǎng)絡(luò)的參數(shù)(就是那些variables)保存下來匪凉,怎么保存呢?其實(shí)捺檬,tensorflow已經(jīng)給我們提供了很方便的API再层,來幫助我們實(shí)現(xiàn)訓(xùn)練參數(shù)的存儲與讀取,如果想了解詳情,請看晦澀難懂的官方API聂受,接下來我簡單介紹一下我的理解蒿秦。

保存與讀取數(shù)據(jù)全靠下面這個類實(shí)現(xiàn):

class tf.train.Saver

當(dāng)我們需要存儲數(shù)據(jù)時,下面2條指令就夠了

saver = tf.train.Saver()
save_path = saver.save(sess, model_path)

解釋一下蛋济,首先創(chuàng)建一個saver類渤早,然后調(diào)用saver的save方法(函數(shù)),save需要傳遞兩個參數(shù)瘫俊,一個是你的訓(xùn)練session鹊杖,另一個是文件存儲路徑,例如“/tmp/superNet.ckpt”扛芽,這個存儲路徑是可以包含文件名的骂蓖。save方法會返回一個存儲路徑。當(dāng)然川尖,save方法還有別的參數(shù)可以傳遞登下,這里不再介紹。
然后怎么讀取數(shù)據(jù)呢叮喳?看下面

saver = tf.train.Saver()
load_path = saver.restore(sess, model_path)

和存儲數(shù)據(jù)神似氨环肌!不再贅述馍悟。

下面是重點(diǎn)畔濒!關(guān)于tf.train.Saver()使用的幾點(diǎn)小心得!

  • 1锣咒、save方法在實(shí)現(xiàn)數(shù)據(jù)讀取時侵状,它僅僅讀數(shù)據(jù),關(guān)鍵是得有一些提前聲明好的variables來接受這些數(shù)據(jù)毅整,因此趣兄,當(dāng)save讀取數(shù)據(jù)到sess時,需要提前聲明與數(shù)據(jù)匹配的variables悼嫉,否則程序就報錯了艇潭。
  • 2、save讀取的數(shù)據(jù)不需要initialize戏蔑。
  • 3蹋凝、目前想到的就這么多,隨時補(bǔ)充辛臊。

為了對數(shù)據(jù)存儲和讀取有更直觀的認(rèn)識仙粱,我自己寫了兩個實(shí)驗(yàn)小程序,下面是第一個彻舰,訓(xùn)練網(wǎng)絡(luò)并存儲數(shù)據(jù)伐割,用的MNIST數(shù)據(jù)集

import tensorflow as tf
import sys

# load MNIST data
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets('data', one_hot=True)

# 一些 hyper parameters
activation = tf.nn.relu
batch_size = 100
iteration = 20000
hidden1_units = 30
# 注意候味!這里是存儲路徑!
model_path = sys.path[0] + '/simple_mnist.ckpt'

X = tf.placeholder(tf.float32, [None, 784])
y_ = tf.placeholder(tf.float32, [None, 10])

W_fc1 = tf.Variable(tf.truncated_normal([784, hidden1_units], stddev=0.2))
b_fc1 = tf.Variable(tf.zeros([hidden1_units]))
W_fc2 = tf.Variable(tf.truncated_normal([hidden1_units, 10], stddev=0.2))
b_fc2 = tf.Variable(tf.zeros([10]))

def inference(img):
    fc1 = activation(tf.nn.bias_add(tf.matmul(img, W_fc1), b_fc1))
    logits = tf.nn.bias_add(tf.matmul(fc1, W_fc2), b_fc2)
    return logits

def loss(logits, labels):
    cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits, labels)
    loss = tf.reduce_mean(cross_entropy)
    return loss

def evaluation(logits, labels):
    correct_prediction = tf.equal(tf.argmax(logits, 1), tf.argmax(labels, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    return accuracy

logits = inference(X)
loss = loss(logits, y_)
train_op = tf.train.AdamOptimizer(1e-4).minimize(loss)
accuracy = evaluation(logits, y_)

# 先實(shí)例化一個Saver()類
saver = tf.train.Saver()
init = tf.initialize_all_variables()

with tf.Session() as sess:
    sess.run(init)
    for i in xrange(iteration):
        batch = mnist.train.next_batch(batch_size)
        if i%1000 == 0 and i:
            train_accuracy = sess.run(accuracy, feed_dict={X: batch[0], y_: batch[1]})
            print "step %d, train accuracy %g" %(i, train_accuracy)
        sess.run(train_op, feed_dict={X: batch[0], y_: batch[1]})
    print '[+] Test accuracy is %f' % sess.run(accuracy, feed_dict={X: mnist.test.images, y_: mnist.test.labels})
    # 存儲訓(xùn)練好的variables
    save_path = saver.save(sess, model_path)
    print "[+] Model saved in file: %s" % save_path

接下來是讀取數(shù)據(jù)并做測試隔心!

import tensorflow as tf
import sys

from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets('data', one_hot=True)

activation = tf.nn.relu
hidden1_units = 30
model_path = sys.path[0] + '/simple_mnist.ckpt'

X = tf.placeholder(tf.float32, [None, 784])
y_ = tf.placeholder(tf.float32, [None, 10])

W_fc1 = tf.Variable(tf.truncated_normal([784, hidden1_units], stddev=0.2))
b_fc1 = tf.Variable(tf.zeros([hidden1_units]))
W_fc2 = tf.Variable(tf.truncated_normal([hidden1_units, 10], stddev=0.2))
b_fc2 = tf.Variable(tf.zeros([10]))

def inference(img):
    fc1 = activation(tf.nn.bias_add(tf.matmul(img, W_fc1), b_fc1))
    logits = tf.nn.bias_add(tf.matmul(fc1, W_fc2), b_fc2)
    return logits

def evaluation(logits, labels):
    correct_prediction = tf.equal(tf.argmax(logits, 1), tf.argmax(labels, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    return accuracy

logits = inference(X)
accuracy = evaluation(logits, y_)

saver = tf.train.Saver()

with tf.Session() as sess:
    # 讀取之前訓(xùn)練好的數(shù)據(jù)
    load_path = saver.restore(sess, model_path)
    print "[+] Model restored from %s" % load_path
    print '[+] Test accuracy is %f' % sess.run(accuracy, feed_dict={X: mnist.test.images, y_: mnist.test.labels})
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末白群,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子硬霍,更是在濱河造成了極大的恐慌帜慢,老刑警劉巖,帶你破解...
    沈念sama閱讀 206,839評論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件唯卖,死亡現(xiàn)場離奇詭異粱玲,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)拜轨,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,543評論 2 382
  • 文/潘曉璐 我一進(jìn)店門抽减,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人橄碾,你說我怎么就攤上這事卵沉。” “怎么了法牲?”我有些...
    開封第一講書人閱讀 153,116評論 0 344
  • 文/不壞的土叔 我叫張陵史汗,是天一觀的道長。 經(jīng)常有香客問我拒垃,道長停撞,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 55,371評論 1 279
  • 正文 為了忘掉前任恶复,我火速辦了婚禮怜森,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘谤牡。我一直安慰自己,他們只是感情好姥宝,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,384評論 5 374
  • 文/花漫 我一把揭開白布翅萤。 她就那樣靜靜地躺著,像睡著了一般腊满。 火紅的嫁衣襯著肌膚如雪套么。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,111評論 1 285
  • 那天碳蛋,我揣著相機(jī)與錄音胚泌,去河邊找鬼。 笑死肃弟,一個胖子當(dāng)著我的面吹牛玷室,可吹牛的內(nèi)容都是我干的零蓉。 我是一名探鬼主播,決...
    沈念sama閱讀 38,416評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼穷缤,長吁一口氣:“原來是場噩夢啊……” “哼敌蜂!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起津肛,我...
    開封第一講書人閱讀 37,053評論 0 259
  • 序言:老撾萬榮一對情侶失蹤章喉,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后身坐,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體秸脱,經(jīng)...
    沈念sama閱讀 43,558評論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,007評論 2 325
  • 正文 我和宋清朗相戀三年部蛇,在試婚紗的時候發(fā)現(xiàn)自己被綠了摊唇。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,117評論 1 334
  • 序言:一個原本活蹦亂跳的男人離奇死亡搪花,死狀恐怖遏片,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情撮竿,我是刑警寧澤吮便,帶...
    沈念sama閱讀 33,756評論 4 324
  • 正文 年R本政府宣布,位于F島的核電站幢踏,受9級特大地震影響髓需,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜房蝉,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,324評論 3 307
  • 文/蒙蒙 一僚匆、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧搭幻,春花似錦咧擂、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,315評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至俯逾,卻和暖如春贸桶,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背桌肴。 一陣腳步聲響...
    開封第一講書人閱讀 31,539評論 1 262
  • 我被黑心中介騙來泰國打工皇筛, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人坠七。 一個月前我還...
    沈念sama閱讀 45,578評論 2 355
  • 正文 我出身青樓水醋,卻偏偏與公主長得像旗笔,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子离例,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,877評論 2 345

推薦閱讀更多精彩內(nèi)容