TensorFlow代碼結(jié)構(gòu)

本文譯自Danijar Hafner的博客Structuring Your TensorFlow Models锌介。

構(gòu)建計算圖

一般來說會對每個模型建立一個class该肴,這個class的接口是什么呢假勿?通常模型會連接一些輸入數(shù)據(jù)和目標(biāo)的placeholders以及提供一些訓(xùn)練、評估和前向傳播的操作(operation)脸候,下面是一個例子获列,展示了一個全連接神經(jīng)網(wǎng)絡(luò):

class Model:

    def __init__(self, data, target):
        data_size = int(data.get_shape()[1])
        target_size = int(target.get_shape()[1])
        weight = tf.Variable(tf.truncated_normal([data_size, target_size]))
        bias = tf.Variable(tf.constant(0.1, shape=[target_size]))
        incoming = tf.matmul(data, weight) + bias
        self._prediction = tf.nn.softmax(incoming)
        cross_entropy = -tf.reduce_sum(target, tf.log(self._prediction))
        self._optimize = tf.train.RMSPropOptimizer(0.03).minimize(cross_entropy)
        mistakes = tf.not_equal(
            tf.argmax(target, 1), tf.argmax(self._prediction, 1))
        self._error = tf.reduce_mean(tf.cast(mistakes, tf.float32))

    @property
    def prediction(self):
        return self._prediction

    @property
    def optimize(self):
        return self._optimize

    @property
    def error(self):
        return self._error

這是一個基本結(jié)構(gòu)逗爹。然而這里存在一些問題亡嫌,最顯著的問題是整個計算圖是用單個函數(shù)定義的,這減少了可讀性和可重用性掘而。

使用Property裝飾器

僅僅將代碼分割為不同的函數(shù)不管用挟冠,因為一旦函數(shù)被調(diào)用,計算圖就會增加(這點譯者深有體會袍睡,Tensorflow中的代碼復(fù)用和傳統(tǒng)代碼復(fù)用不一致知染,因為它會為每一行代碼構(gòu)建計算節(jié)點,即使該節(jié)點所使用的參數(shù)是同一套)斑胜。因此控淡,我們需要確保操作(operation)僅在函數(shù)第一次被調(diào)用的時候加入計算圖,這是基本的惰性編程(lazy-coding)思想止潘。

class Model:

    def __init__(self, data, target):
        self.data = data
        self.target = target
        self._prediction = None
        self._optimize = None
        self._error = None

    @property
    def prediction(self):
        if not self._prediction:
            data_size = int(self.data.get_shape()[1])
            target_size = int(self.target.get_shape()[1])
            weight = tf.Variable(tf.truncated_normal([data_size, target_size]))
            bias = tf.Variable(tf.constant(0.1, shape=[target_size]))
            incoming = tf.matmul(self.data, weight) + bias
            self._prediction = tf.nn.softmax(incoming)
        return self._prediction

    @property
    def optimize(self):
        if not self._optimize:
            cross_entropy = -tf.reduce_sum(self.target, tf.log(self.prediction))
            optimizer = tf.train.RMSPropOptimizer(0.03)
            self._optimize = optimizer.minimize(cross_entropy)
        return self._optimize

    @property
    def error(self):
        if not self._error:
            mistakes = tf.not_equal(
                tf.argmax(self.target, 1), tf.argmax(self.prediction, 1))
            self._error = tf.reduce_mean(tf.cast(mistakes, tf.float32))
        return self._error

這個例子比第一個例子好多了掺炭,現(xiàn)在代碼被劃分成了不同的函數(shù)。然而這個代碼還是有點冗余(因為每個函數(shù)都用了相同的邏輯:if not ……凭戴,這個部分讓代碼看上去嵌套而不扁平竹伸,所以這個部分可用裝飾器重用)。

惰性屬性裝飾器(Lazy Property Decorator)

上面的例子使用了property裝飾器簇宽,它將函數(shù)的返回結(jié)構(gòu)存儲到一個以函數(shù)名為名字的對象屬性中。現(xiàn)在我們還可以將惰性編程的部分加入裝飾器吧享。

import functools

def lazy_property(function):
    attribute = '_cache_' + function.__name__

    @property
    @functools.wraps(function)
    def decorator(self):
        if not hasattr(self, attribute):
            setattr(self, attribute, function(self))
        return getattr(self, attribute)

    return decorator

現(xiàn)在我們的代碼就可以更佳簡化了魏割,如下所示:

class Model:

    def __init__(self, data, target):
        self.data = data
        self.target = target
        self.prediction
        self.optimize
        self.error

    @lazy_property
    def prediction(self):
        data_size = int(self.data.get_shape()[1])
        target_size = int(self.target.get_shape()[1])
        weight = tf.Variable(tf.truncated_normal([data_size, target_size]))
        bias = tf.Variable(tf.constant(0.1, shape=[target_size]))
        incoming = tf.matmul(self.data, weight) + bias
        return tf.nn.softmax(incoming)

    @lazy_property
    def optimize(self):
        cross_entropy = -tf.reduce_sum(self.target, tf.log(self.prediction))
        optimizer = tf.train.RMSPropOptimizer(0.03)
        return optimizer.minimize(cross_entropy)

    @lazy_property
    def error(self):
        mistakes = tf.not_equal(
            tf.argmax(self.target, 1), tf.argmax(self.prediction, 1))
        return tf.reduce_mean(tf.cast(mistakes, tf.float32))

整個計算圖在執(zhí)行tf.initialize_variables()前需要定義好。

用Scopes組織計算圖

使用上面的例子產(chǎn)生的計算圖依舊非常擁擠钢颂,如果你可視化整個計算圖钞它,那么它會包含很多內(nèi)部的小節(jié)點,一個解決方式是使用tf.name_scope('name')或者tf.variable_scope('name')殊鞭。這樣節(jié)點會被分組遭垛,可視化非常直觀。我們可以通過調(diào)整之前的裝飾器操灿,將一個函數(shù)的名字作為其命名空間:

import functools

def define_scope(function):
    attribute = '_cache_' + function.__name__

    @property
    @functools.wraps(function)
    def decorator(self):
        if not hasattr(self, attribute):
            with tf.variable_scope(function.__name):
                setattr(self, attribute, function(self))
        return getattr(self, attribute)

    return decorator

這樣我們就定義了一個緊湊锯仪、可讀性強的代碼。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末趾盐,一起剝皮案震驚了整個濱河市庶喜,隨后出現(xiàn)的幾起案子小腊,更是在濱河造成了極大的恐慌,老刑警劉巖久窟,帶你破解...
    沈念sama閱讀 211,290評論 6 491
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件秩冈,死亡現(xiàn)場離奇詭異,居然都是意外死亡斥扛,警方通過查閱死者的電腦和手機入问,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,107評論 2 385
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來稀颁,“玉大人芬失,你說我怎么就攤上這事【澹” “怎么了麸折?”我有些...
    開封第一講書人閱讀 156,872評論 0 347
  • 文/不壞的土叔 我叫張陵,是天一觀的道長粘昨。 經(jīng)常有香客問我垢啼,道長,這世上最難降的妖魔是什么张肾? 我笑而不...
    開封第一講書人閱讀 56,415評論 1 283
  • 正文 為了忘掉前任芭析,我火速辦了婚禮,結(jié)果婚禮上吞瞪,老公的妹妹穿的比我還像新娘馁启。我一直安慰自己,他們只是感情好芍秆,可當(dāng)我...
    茶點故事閱讀 65,453評論 6 385
  • 文/花漫 我一把揭開白布惯疙。 她就那樣靜靜地躺著,像睡著了一般妖啥。 火紅的嫁衣襯著肌膚如雪霉颠。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,784評論 1 290
  • 那天荆虱,我揣著相機與錄音蒿偎,去河邊找鬼。 笑死怀读,一個胖子當(dāng)著我的面吹牛诉位,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播菜枷,決...
    沈念sama閱讀 38,927評論 3 406
  • 文/蒼蘭香墨 我猛地睜開眼苍糠,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了啤誊?” 一聲冷哼從身側(cè)響起椿息,我...
    開封第一講書人閱讀 37,691評論 0 266
  • 序言:老撾萬榮一對情侶失蹤歹袁,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后寝优,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體条舔,經(jīng)...
    沈念sama閱讀 44,137評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,472評論 2 326
  • 正文 我和宋清朗相戀三年乏矾,在試婚紗的時候發(fā)現(xiàn)自己被綠了孟抗。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,622評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡钻心,死狀恐怖凄硼,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情捷沸,我是刑警寧澤摊沉,帶...
    沈念sama閱讀 34,289評論 4 329
  • 正文 年R本政府宣布,位于F島的核電站痒给,受9級特大地震影響说墨,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜苍柏,卻給世界環(huán)境...
    茶點故事閱讀 39,887評論 3 312
  • 文/蒙蒙 一尼斧、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧试吁,春花似錦棺棵、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,741評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至余耽,卻和暖如春缚柏,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背宾添。 一陣腳步聲響...
    開封第一講書人閱讀 31,977評論 1 265
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留柜裸,地道東北人缕陕。 一個月前我還...
    沈念sama閱讀 46,316評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像疙挺,于是被迫代替她去往敵國和親扛邑。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 43,490評論 2 348

推薦閱讀更多精彩內(nèi)容