TF 低價API之手動訓練回歸模型

TensorFlow 低階API派哲,手動訓練一個小型回歸模型侥猬。

定義數(shù)據(jù)

我們首先來定義一些輸入值 x笛园,以及每個輸入值的預期輸出值 y_true:

x = tf.constant([[1], [2], [3], [4]], dtype=tf.float32)
y_true = tf.constant([[0], [-1], [-2], [-3]], dtype=tf.float32)

定義模型

接下來懦胞,建立一個簡單的線性模型,其輸出值只有 1 個:

linear_model = tf.layers.Dense(units=1)

y_pred = linear_model(x)

您可以如下評估預測值:

sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)

print(sess.run(y_pred))

該模型尚未接受訓練脊串,因此這里的‘預測’值并不理想辫呻。

損失

要優(yōu)化模型,您首先需要定義損失琼锋,我們將使用均方誤差印屁,這是回歸問題的標準損失。

loss = tf.losses.mean_squared_error(labels=y_true, predictions=y_pred)

print(sess.run(loss))

這里會生成一個損失值:

2.23962

訓練

TensorFlow 提供了執(zhí)行標準優(yōu)化算法的優(yōu)化器斩例。這些優(yōu)化器被實現(xiàn)為 tf.train.Optimizer 的子類雄人。它們會逐漸改變每個變量,以便將損失最小化。最簡單的優(yōu)化算法是梯度下降法础钠,由 tf.train.GradientDescentOptimizer 實現(xiàn)恰力。它會根據(jù)損失相對于變量的導數(shù)大小來修改各個變量。例如:

optimizer = tf.train.GradientDescentOptimizer(0.01)
train = optimizer.minimize(loss)

該代碼構(gòu)建了優(yōu)化所需的所有圖組件旗吁,并返回一個訓練指令踩萎。該訓練指令在運行時會更新圖中的變量。您可以按以下方式運行該指令:

for i in range(100):
    _, loss_value = sess.run((train, loss))
    print(loss_value)

由于 train 是一個指令而不是張量很钓,因此它在運行時不會返回一個值香府。為了查看訓練期間損失的進展,我們會同時運行損失張量码倦,生成如下所示的輸出值:

1.35659
1.00412
0.759167
0.588829
0.470264
0.387626
0.329918
0.289511
0.261112
0.241046
...

完整程序如下:

from __future__ import absolute_import, division, print_function
import tensorflow as tf

# TF 手動訓練一個小型回歸模型

# 1.  定義數(shù)據(jù)
x = tf.constant([[1], [2], [3], [4]],dtype = tf.float32)
y_true = tf.constant([[0], [-1], [-2], [-3]],dtype = tf.float32)

# 2.  定義模型
linear_model = tf.layers.Dense(units = 1)   # 定義一個簡單的線性模型企孩,只有1個輸出值
y_pred = linear_model(x)

# 3.  損失
loss = tf.losses.mean_squared_error(labels = y_true, predictions = y_pred)

# 4.  訓練
optimizer = tf.train.GradientDescentOptimizer(0.01)  # 學習率為0.01的梯度下降優(yōu)化器
train = optimizer.minimize(loss)

init = tf.global_variables_initializer()  # 層包含的變量必須先初始化,然后才能使用
sess = tf.Session()   # 創(chuàng)建會話:要評估張量袁稽,需要實例化一個 tf.Session 對象
sess.run(init)
for i in range(100):
    _, loss_value = sess.run((train, loss))  # 執(zhí)行層
    print('Loss at step {} : {:.3f}'.format(i,loss_value))

print(sess.run(y_pred))
最后編輯于
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末勿璃,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子推汽,更是在濱河造成了極大的恐慌补疑,老刑警劉巖,帶你破解...
    沈念sama閱讀 212,718評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件歹撒,死亡現(xiàn)場離奇詭異莲组,居然都是意外死亡,警方通過查閱死者的電腦和手機暖夭,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,683評論 3 385
  • 文/潘曉璐 我一進店門锹杈,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人鳞尔,你說我怎么就攤上這事嬉橙。” “怎么了寥假?”我有些...
    開封第一講書人閱讀 158,207評論 0 348
  • 文/不壞的土叔 我叫張陵市框,是天一觀的道長。 經(jīng)常有香客問我糕韧,道長枫振,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,755評論 1 284
  • 正文 為了忘掉前任萤彩,我火速辦了婚禮粪滤,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘雀扶。我一直安慰自己杖小,他們只是感情好肆汹,可當我...
    茶點故事閱讀 65,862評論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著予权,像睡著了一般昂勉。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上扫腺,一...
    開封第一講書人閱讀 50,050評論 1 291
  • 那天岗照,我揣著相機與錄音,去河邊找鬼笆环。 笑死攒至,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的躁劣。 我是一名探鬼主播迫吐,決...
    沈念sama閱讀 39,136評論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼习绢!你這毒婦竟也來了渠抹?” 一聲冷哼從身側(cè)響起蝙昙,我...
    開封第一講書人閱讀 37,882評論 0 268
  • 序言:老撾萬榮一對情侶失蹤闪萄,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后奇颠,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體败去,經(jīng)...
    沈念sama閱讀 44,330評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,651評論 2 327
  • 正文 我和宋清朗相戀三年烈拒,在試婚紗的時候發(fā)現(xiàn)自己被綠了圆裕。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,789評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡荆几,死狀恐怖吓妆,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情吨铸,我是刑警寧澤行拢,帶...
    沈念sama閱讀 34,477評論 4 333
  • 正文 年R本政府宣布,位于F島的核電站诞吱,受9級特大地震影響舟奠,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜房维,卻給世界環(huán)境...
    茶點故事閱讀 40,135評論 3 317
  • 文/蒙蒙 一沼瘫、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧咙俩,春花似錦耿戚、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,864評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽晓锻。三九已至,卻和暖如春飞几,著一層夾襖步出監(jiān)牢的瞬間砚哆,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,099評論 1 267
  • 我被黑心中介騙來泰國打工屑墨, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留躁锁,地道東北人。 一個月前我還...
    沈念sama閱讀 46,598評論 2 362
  • 正文 我出身青樓卵史,卻偏偏與公主長得像战转,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子以躯,可洞房花燭夜當晚...
    茶點故事閱讀 43,697評論 2 351