2018-12-23-tensorflow要點(diǎn)

保存檢查點(diǎn)(checkpoint)

為了得到可以用來(lái)后續(xù)恢復(fù)模型以進(jìn)一步訓(xùn)練或評(píng)估的檢查點(diǎn)文件(checkpoint file)裙士,我們實(shí)例化一個(gè)tf.train.Saver

saver = tf.train.Saver()

在訓(xùn)練循環(huán)中判呕,將定期調(diào)用saver.save()方法,向訓(xùn)練文件夾中寫入包含了當(dāng)前所有可訓(xùn)練變量值得檢查點(diǎn)文件。

saver.save(sess, FLAGS.train_dir, global_step=step)

這樣,我們以后就可以使用saver.restore()方法烛芬,重載模型的參數(shù),繼續(xù)訓(xùn)練飒责。

saver.restore(sess, FLAGS.train_dir)

例:
保存變量
用tf.train.Saver()創(chuàng)建一個(gè)Saver來(lái)管理模型中的所有變量。

# Create some variables.
v1 = tf.Variable(..., name="v1")
v2 = tf.Variable(..., name="v2")
...
# Add an op to initialize the variables.
init_op = tf.initialize_all_variables()

# Add ops to save and restore all the variables.
saver = tf.train.Saver()

# Later, launch the model, initialize the variables, do some work, save the
# variables to disk.
with tf.Session() as sess:
  sess.run(init_op)
  # Do some work with the model.
  ..
  # Save the variables to disk.
  save_path = saver.save(sess, "/tmp/model.ckpt")
  print "Model saved in file: ", save_path

恢復(fù)變量
用同一個(gè)Saver對(duì)象來(lái)恢復(fù)變量仆潮。注意宏蛉,當(dāng)你從文件中恢復(fù)變量時(shí),不需要事先對(duì)它們做初始化性置。

# Create some variables.
v1 = tf.Variable(..., name="v1")
v2 = tf.Variable(..., name="v2")
...
# Add ops to save and restore all the variables.
saver = tf.train.Saver()

# Later, launch the model, use the saver to restore variables from disk, and
# do some work with the model.
with tf.Session() as sess:
  # Restore variables from disk.
  saver.restore(sess, "/tmp/model.ckpt")
  print "Model restored."
  # Do some work with the model
  ...

選擇存儲(chǔ)和恢復(fù)哪些變量

如果你不給tf.train.Saver()傳入任何參數(shù)拾并,那么saver將處理graph中的所有變量。其中每一個(gè)變量都以變量創(chuàng)建時(shí)傳入的名稱被保存。

有時(shí)候在檢查點(diǎn)文件中明確定義變量的名稱很有用嗅义。舉個(gè)例子屏歹,你也許已經(jīng)訓(xùn)練得到了一個(gè)模型,其中有個(gè)變量命名為"weights"之碗,你想把它的值恢復(fù)到一個(gè)新的變量"params"中蝙眶。

有時(shí)候僅保存和恢復(fù)模型的一部分變量很有用。再舉個(gè)例子褪那,你也許訓(xùn)練得到了一個(gè)5層神經(jīng)網(wǎng)絡(luò)幽纷,現(xiàn)在想訓(xùn)練一個(gè)6層的新模型,可以將之前5層模型的參數(shù)導(dǎo)入到新模型的前5層中博敬。

你可以通過(guò)給tf.train.Saver()構(gòu)造函數(shù)傳入Python字典友浸,很容易地定義需要保持的變量及對(duì)應(yīng)名稱:鍵對(duì)應(yīng)使用的名稱,值對(duì)應(yīng)被管理的變量偏窝。

注意:

  • 如果需要保存和恢復(fù)模型變量的不同子集收恢,可以創(chuàng)建任意多個(gè)saver對(duì)象。同一個(gè)變量可被列入多個(gè)saver對(duì)象中祭往,只有當(dāng)saver的restore()函數(shù)被運(yùn)行時(shí)伦意,它的值才會(huì)發(fā)生改變。
  • 如果你僅在session開(kāi)始時(shí)恢復(fù)模型變量的一個(gè)子集链沼,你需要對(duì)剩下的變量執(zhí)行初始化op默赂。詳情請(qǐng)見(jiàn)tf.initialize_variables()
# Create some variables.
v1 = tf.Variable(..., name="v1")
v2 = tf.Variable(..., name="v2")
...
# Add ops to save and restore only 'v2' using the name "my_v2"
saver = tf.train.Saver({"my_v2": v2})
# Use the saver object normally after that.
...

關(guān)于tensorflow中tensorborad No dashboards are active for the current data set.的解決辦法

鏈接在這里:(https://stackoverflow.com/questions/47113472/tensorboard-error-no-dashboards-are-active-for-current-data-set)

our issue may be related to the drive you are attempting to start tensorboard from and the drive your logdir is on. Tensorboard uses a colon to separate the optional run name and the path in the logdir flag, so your path is being interpreted as \path\to\output\folder with name C. This can be worked around by either starting tensorboard from the same drive as your log directory or by providing an explicit run name, e.g. --logdir=mylogs:C:\path\to\output\folder.

什么意思呢括勺。也就是說(shuō)你的--logdir后面的文件和目錄是通過(guò)冒號(hào)分割的缆八,先寫文件,再寫路徑:

附上我的代碼:

python;gutter:true;">import tensorflow as tf
a=tf.constant(1,name="input_a")
b=tf.constant(2,name="input_b")
c=tf.multiply(a,b, name=‘mul_c‘)
d=tf.multiply(a,b, name=‘mul_d‘)
e=tf.add(c,d, name=‘a(chǎn)dd_e‘)
print(e)
sess=tf.Session()
sess.run(e)
writer=tf.summary.FileWriter(‘./my_graph‘,sess.graph)
然后在console上執(zhí)行:

注意:tensorboard --logdir=file_name:path_name

tensorboard --logdir=logs:D:/Code/PycharmProjects/test/venv

image.png
image.png

附上成功的代碼:

import tensorflow as tf
import numpy as np

# 使用 NumPy 生成假數(shù)據(jù)(phony data), 總共 100 個(gè)點(diǎn).
x_data = np.float32(np.random.rand(2, 100)) # 隨機(jī)輸入
y_data = np.dot([0.100, 0.200], x_data) + 0.300

# 構(gòu)造一個(gè)線性模型
#
b = tf.Variable(tf.zeros([1]))
W = tf.Variable(tf.random_uniform([1, 2], -1.0, 1.0))
y = tf.matmul(W, x_data) + b

# 最小化方差
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)

# 初始化變量
init = tf.initialize_all_variables()

# 啟動(dòng)圖 (graph)
sess = tf.Session()
sess.run(init)

# 擬合平面
for step in range(0, 201):
    sess.run(train)
    if step % 20 == 0:
        print(step, sess.run(W), sess.run(b))

# 得到最佳擬合結(jié)果 W: [[0.100  0.200]], b: [0.300]
summary_writer = tf.summary.FileWriter('logs', sess.graph)
image.png
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末疾捍,一起剝皮案震驚了整個(gè)濱河市奈辰,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌乱豆,老刑警劉巖奖恰,帶你破解...
    沈念sama閱讀 211,639評(píng)論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異宛裕,居然都是意外死亡瑟啃,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,277評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門揩尸,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)蛹屿,“玉大人,你說(shuō)我怎么就攤上這事岩榆〈砀海” “怎么了坟瓢?”我有些...
    開(kāi)封第一講書人閱讀 157,221評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)犹撒。 經(jīng)常有香客問(wèn)我折联,道長(zhǎng),這世上最難降的妖魔是什么识颊? 我笑而不...
    開(kāi)封第一講書人閱讀 56,474評(píng)論 1 283
  • 正文 為了忘掉前任诚镰,我火速辦了婚禮,結(jié)果婚禮上谊囚,老公的妹妹穿的比我還像新娘怕享。我一直安慰自己,他們只是感情好镰踏,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,570評(píng)論 6 386
  • 文/花漫 我一把揭開(kāi)白布函筋。 她就那樣靜靜地躺著,像睡著了一般奠伪。 火紅的嫁衣襯著肌膚如雪跌帐。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書人閱讀 49,816評(píng)論 1 290
  • 那天绊率,我揣著相機(jī)與錄音谨敛,去河邊找鬼。 笑死滤否,一個(gè)胖子當(dāng)著我的面吹牛脸狸,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播藐俺,決...
    沈念sama閱讀 38,957評(píng)論 3 408
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼炊甲,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了欲芹?” 一聲冷哼從身側(cè)響起卿啡,我...
    開(kāi)封第一講書人閱讀 37,718評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎菱父,沒(méi)想到半個(gè)月后颈娜,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,176評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡浙宜,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,511評(píng)論 2 327
  • 正文 我和宋清朗相戀三年官辽,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片粟瞬。...
    茶點(diǎn)故事閱讀 38,646評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡野崇,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出亩钟,到底是詐尸還是另有隱情乓梨,我是刑警寧澤,帶...
    沈念sama閱讀 34,322評(píng)論 4 330
  • 正文 年R本政府宣布清酥,位于F島的核電站扶镀,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏焰轻。R本人自食惡果不足惜臭觉,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,934評(píng)論 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望辱志。 院中可真熱鬧蝠筑,春花似錦、人聲如沸揩懒。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 30,755評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)已球。三九已至臣镣,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間智亮,已是汗流浹背忆某。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 31,987評(píng)論 1 266
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留阔蛉,地道東北人弃舒。 一個(gè)月前我還...
    沈念sama閱讀 46,358評(píng)論 2 360
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像状原,于是被迫代替她去往敵國(guó)和親聋呢。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,514評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容