[tf]模型存儲(chǔ)和加載

saver.save(sess, 'my-model', global_step=1000) ==> filename: 'my-model-1000'
saver = tf.train.Saver() 默認(rèn)是保存默認(rèn)圖上的Variable數(shù)據(jù)。當(dāng)然也可以指定保存那些Variable數(shù)據(jù)也切,tf.train.Saver([var_list])敢伸。

模型的加載

loader = tf.train.Saver()
loader.restore(sess,model_dir)
  • Saver的第一個(gè)參數(shù)是var_list用來指定需要存儲(chǔ)或者保存哪些變量胸私。如果不指定的話那么默認(rèn)保存和加載全部的可保存的對象酿傍。
v1 = tf.Variable(..., name='v1')
v2 = tf.Variable(..., name='v2')

# Pass the variables as a dict:
saver = tf.train.Saver({'v1': v1, 'v2': v2})

# Or pass them as a list.
saver = tf.train.Saver([v1, v2])
# Passing a list is equivalent to passing a dict with the variable op names
# as keys:
saver = tf.train.Saver({v.op.name: v for v in [v1, v2]})

表示的意思是需要加載的變量是embedding

def setup_loader(self):
    self.loader = tf.train.Saver(self.var_list)

def load_session(self, itr):
        self.loader.restore(self.sess, self.model_name + "_weights/" + self.dataset + "/" + itr + ".ckpt")
-----------------------TransE model中的self.var_list---------------------
self.rel_emb = tf.get_variable(name="rel_emb", initializer=tf.random_uniform(shape=[self.num_rel, self.params.emb_size], minval=-sqrt_size, maxval=sqrt_size))
self.ent_emb = tf.get_variable(name="ent_emb", initializer=tf.random_uniform(shape=[self.num_ent, self.params.emb_size], minval=-sqrt_size, maxval=sqrt_size))
self.var_list = [self.rel_emb, self.ent_emb]

模型的保存

saver = tf.train.Saver(max_to_keep=0)
saver.save(self.sess, filename)
  • os.mkdir()只對路徑的最后一級目錄進(jìn)行創(chuàng)建弛秋,如果前幾級目錄不存在线召,會(huì)報(bào)錯(cuò)铺韧!os.makedirs()可以創(chuàng)建多級目錄,如果路徑的目錄都不存在缓淹,都可以創(chuàng)建出來哈打。
  • 按照模型和數(shù)據(jù)集合進(jìn)行分文件夾的保存
  • max_to_keep 參數(shù):這個(gè)是用來設(shè)置保存模型的個(gè)數(shù)讯壶,默認(rèn)為5料仗,即 max_to_keep=5,保存最近的5個(gè)模型伏蚊。如果想要保存模型的數(shù)量不受限制立轧,則可以將 max_to_keep設(shè)置為None或者0,如果你只想保存最后一代的模型躏吊,則只需要將max_to_keep設(shè)置為1即可氛改。
  • saver.save(sess,filename,global_step=step)還有最后一個(gè)參數(shù)global_step,表示保存模型名字的后綴是step比伏。
def setup_saver(self):
    self.saver = tf.train.Saver(max_to_keep=0)

def save_model(self, itr):
    filename = self.model_name + "_weights/" + self.dataset + "/" + str(itr) + ".ckpt"
    if not os.path.exists(os.path.dirname(filename)):
        os.makedirs(os.path.dirname(filename))
    self.saver.save(self.sess, filename)

例子:保存模型

# construct graph
v1 = tf.Variable([0], name='v1')
v2 = tf.Variable([0], name='v2')
# run graph
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    saver = tf.train.Saver()
    saver.save(sess, 'ckp')

with tf.Session() as sess:
    saver = tf.import_meta_graph('ckp.meta')
    saver.restore(sess, 'ckp')

當(dāng)執(zhí)行Saver.saver操作的時(shí)候胜卤,在文件系統(tǒng)中生成如下文件:

  • index:文件保存了一個(gè)不可變的表數(shù)據(jù),記錄Tensor元數(shù)據(jù)的信息赁项,比如tensor存儲(chǔ)在那個(gè)數(shù)據(jù)data文件中葛躏,以及在數(shù)據(jù)文件中的偏移,校驗(yàn)和其他信息肤舞。
  • 數(shù)據(jù)(data) :文件記錄了所有變量(Variable) 的值紫新,當(dāng)restore 某個(gè)變量時(shí),首先從索引文件中找到相應(yīng)變量在哪個(gè)數(shù)據(jù)文件李剖,然后根據(jù)索引直接獲取變量的值,從而實(shí)現(xiàn)變量數(shù)據(jù)的恢復(fù)囤耳。
  • 元文件(meta) :保存了MetaGraphDef 的持久化數(shù)據(jù)篙顺,它包括GraphDef, SaverDef 等元數(shù)據(jù)偶芍。就是描述了圖結(jié)構(gòu)的信息。這也是在上例中德玫,在調(diào)用Saver.restore 之前匪蟀,得先調(diào)用tf.import_meta_graph 的真正原因;否則宰僧,缺失計(jì)算圖的實(shí)例材彪,就無法談及恢復(fù)數(shù)據(jù)到圖實(shí)例中了。
  • 狀態(tài)文件checkpoint:文件會(huì)記錄最近一次的斷點(diǎn)文件的前綴琴儿,根據(jù)前綴找到對應(yīng)的索引和數(shù)據(jù)文件段化,當(dāng)調(diào)用tf.train.latest_checkpoint,可以快速找到最近一次的斷點(diǎn)文件造成,此外显熏,Checkpoint 文件也記錄了所有的斷點(diǎn)文件列表,并且文件列表按照由舊至新的時(shí)間依次排序晒屎。當(dāng)訓(xùn)練任務(wù)時(shí)間周期非常長喘蟆,斷點(diǎn)檢查將持續(xù)進(jìn)行,必將導(dǎo)致磁盤空間被耗盡鼓鲁。為了避免這個(gè)問題蕴轨,存在兩種基本的方法:設(shè)置max_to_keep: 配置最近有效文件的最大數(shù)目,當(dāng)新的斷點(diǎn)文件生成時(shí)骇吭,且文件數(shù)目超過max_to_keep橙弱,則刪除最舊的斷點(diǎn)文件;其中绵跷,max_to_keep 默認(rèn)值為5膘螟,keep_checkpoint_every_n_hours: 在訓(xùn)練過程中每n 小時(shí)做一次斷點(diǎn)檢查,保證只有一個(gè)斷點(diǎn)文件碾局;其中荆残,該選項(xiàng)默認(rèn)是關(guān)閉的
├── checkpoint
├── ckp.data-00000-of-00001
├── ckp.index
├── ckp.meta
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末净当,一起剝皮案震驚了整個(gè)濱河市内斯,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌像啼,老刑警劉巖俘闯,帶你破解...
    沈念sama閱讀 219,366評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異忽冻,居然都是意外死亡真朗,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,521評論 3 395
  • 文/潘曉璐 我一進(jìn)店門僧诚,熙熙樓的掌柜王于貴愁眉苦臉地迎上來遮婶,“玉大人蝗碎,你說我怎么就攤上這事∑炱耍” “怎么了蹦骑?”我有些...
    開封第一講書人閱讀 165,689評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長臀防。 經(jīng)常有香客問我眠菇,道長,這世上最難降的妖魔是什么袱衷? 我笑而不...
    開封第一講書人閱讀 58,925評論 1 295
  • 正文 為了忘掉前任捎废,我火速辦了婚禮,結(jié)果婚禮上祟昭,老公的妹妹穿的比我還像新娘缕坎。我一直安慰自己,他們只是感情好篡悟,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,942評論 6 392
  • 文/花漫 我一把揭開白布谜叹。 她就那樣靜靜地躺著,像睡著了一般搬葬。 火紅的嫁衣襯著肌膚如雪荷腊。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,727評論 1 305
  • 那天急凰,我揣著相機(jī)與錄音女仰,去河邊找鬼。 笑死抡锈,一個(gè)胖子當(dāng)著我的面吹牛疾忍,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播床三,決...
    沈念sama閱讀 40,447評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼一罩,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了撇簿?” 一聲冷哼從身側(cè)響起聂渊,我...
    開封第一講書人閱讀 39,349評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎四瘫,沒想到半個(gè)月后汉嗽,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,820評論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡找蜜,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,990評論 3 337
  • 正文 我和宋清朗相戀三年饼暑,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,127評論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡撵孤,死狀恐怖迈着,靈堂內(nèi)的尸體忽然破棺而出竭望,到底是詐尸還是另有隱情邪码,我是刑警寧澤,帶...
    沈念sama閱讀 35,812評論 5 346
  • 正文 年R本政府宣布咬清,位于F島的核電站闭专,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏旧烧。R本人自食惡果不足惜影钉,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,471評論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望掘剪。 院中可真熱鬧平委,春花似錦、人聲如沸夺谁。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,017評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽匾鸥。三九已至蜡塌,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間勿负,已是汗流浹背馏艾。 一陣腳步聲響...
    開封第一講書人閱讀 33,142評論 1 272
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留奴愉,地道東北人琅摩。 一個(gè)月前我還...
    沈念sama閱讀 48,388評論 3 373
  • 正文 我出身青樓,卻偏偏與公主長得像锭硼,于是被迫代替她去往敵國和親房资。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,066評論 2 355