TensorFlow基礎(chǔ)知識點(diǎn)總結(jié)校辩!

本文使用的tensorlow版本:1.4
tensorlow安裝:pip install tensorflow

1杯聚、Tensorflow簡介

TensorFlow是采用數(shù)據(jù)流圖(data flow graphs)來計(jì)算, 所以首先我們得創(chuàng)建一個(gè)數(shù)據(jù)流流圖,然后再將我們的數(shù)據(jù)(數(shù)據(jù)以張量(tensor)的形式存在)放在數(shù)據(jù)流圖中計(jì)算. 節(jié)點(diǎn)(Nodes)在圖中表示數(shù)學(xué)操作,圖中的邊(edges)則表示在節(jié)點(diǎn)間相互聯(lián)系的多維數(shù)據(jù)數(shù)組, 即張量(tensor).訓(xùn)練模型時(shí)tensor會不斷的從數(shù)據(jù)流圖中的一個(gè)節(jié)點(diǎn)flow到另一節(jié)點(diǎn), 這就是TensorFlow名字的由來.
張量(Tensor):張量有多種. 零階張量為 純量或標(biāo)量 (scalar) 也就是一個(gè)數(shù)值. 比如 [1],一階張量為 向量 (vector), 比如 一維的 [1, 2, 3],二階張量為 矩陣 (matrix), 比如 二維的 [[1, 2, 3],[4, 5, 6],[7, 8, 9]],以此類推, 還有 三階 三維的 …

2、從一個(gè)例子講起

首先悬秉,我們來看一個(gè)簡單的例子:

import tensorflow as tf
import numpy as np
#tensorflow中大部分?jǐn)?shù)據(jù)是float32

#create real data
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data * 0.1 + 0.3

### create tensorflow structure start ###

#定義變量
Weights = tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases = tf.Variable(tf.zeros([1]))

#如何計(jì)算預(yù)測值
y = Weights * x_data + biases

# loss function
loss = tf.reduce_mean(tf.square(y-y_data))

#梯度下降優(yōu)化器澄步,定義learning rate
optimizer = tf.train.GradientDescentOptimizer(0.5)

#訓(xùn)練目標(biāo)是loss最小化
train = optimizer.minimize(loss)

#初始化變量冰蘑,即初始化 Weights 和 biases
init = tf.global_variables_initializer()

#創(chuàng)建session和泌,進(jìn)行參數(shù)初始化
sess = tf.Session()
sess.run(init)

#開始訓(xùn)練200步,每隔20步輸出一下兩個(gè)參數(shù)
for step in range(201):
    sess.run(train)
    if step % 20 == 0:
        print(step,sess.run(Weights),sess.run(biases))
### create tensorflow structure end ###

在上面的例子中祠肥,我們想要預(yù)測的方程式y(tǒng)=0.1*x + 0.3,給定訓(xùn)練樣本武氓,通過梯度下降法來預(yù)測參數(shù)W和偏置b,我們使用numpy生成了我們的訓(xùn)練數(shù)據(jù):

x_data = np.random.rand(100).astype(np.float32)
y_data = x_data * 0.1 + 0.3

隨后仇箱,我們使用tf.Variable定義了我們的變量Weights和biases(以下簡稱w和b)县恕,Weights通過一個(gè)均勻分布隨機(jī)產(chǎn)生,而bias則設(shè)置為0剂桥,同時(shí)二者的形狀均為1維忠烛,因?yàn)榫鸵粋€(gè)數(shù)嘛:

Weights = tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases = tf.Variable(tf.zeros([1]))

好了,有了變量权逗,我們想要學(xué)習(xí)w和b美尸,只需要用訓(xùn)練數(shù)據(jù)x來得到預(yù)測值,最小化預(yù)測值和實(shí)際值的差距就好斟薇,所以师坎,我們定義了損失函數(shù)為平方損失函數(shù),并通過0.5學(xué)習(xí)率的梯度下降法來進(jìn)行參數(shù)調(diào)整:

#如何計(jì)算預(yù)測值
y = Weights * x_data + biases

# loss function
loss = tf.reduce_mean(tf.square(y-y_data))

#梯度下降優(yōu)化器堪滨,定義learning rate
optimizer = tf.train.GradientDescentOptimizer(0.5)

#訓(xùn)練目標(biāo)是loss最小化
train = optimizer.minimize(loss)

在tf中定義的變量都需要經(jīng)過初始化的操作胯陋,所以我們定義了一個(gè)初始化變量的操作:

#初始化變量,即初始化 Weights 和 biases
init = tf.global_variables_initializer()

接下來我們就可以開始訓(xùn)練了袱箱,訓(xùn)練必須創(chuàng)建一個(gè)session遏乔,通過run方法對指定的節(jié)點(diǎn)進(jìn)行訓(xùn)練,這里一定要注意先要對參數(shù)進(jìn)行初始化发笔,否則后面是無法開始訓(xùn)練的盟萨。想要觀察訓(xùn)練過程中的參數(shù)變化的話,也需要通過run方法:

#創(chuàng)建session筐咧,進(jìn)行參數(shù)初始化
sess = tf.Session()
sess.run(init)

#開始訓(xùn)練200步鸯旁,每隔20步輸出一下兩個(gè)參數(shù)
for step in range(201):
    sess.run(train)
    if step % 20 == 0:
        print(step,sess.run(Weights),sess.run(biases))

這里 我們直接run的是train這一步噪矛,想要運(yùn)行這一步,必須先得到optimizier和loss铺罢,想要得到loss就要得到預(yù)測值....依次往前推艇挨,所以run(train)實(shí)際上就是對整個(gè)tensor流圖的訓(xùn)練。
好啦韭赘,說了這么多缩滨,我們來看一下我們的輸出結(jié)果吧:

0 [ 0.65090138] [-0.04130311]
20 [ 0.23774943] [ 0.21987261]
40 [ 0.13388598] [ 0.2802889]
60 [ 0.10833587] [ 0.29515111]
80 [ 0.10205062] [ 0.2988072]
100 [ 0.10050445] [ 0.29970658]
120 [ 0.10012411] [ 0.29992783]
140 [ 0.10003054] [ 0.29998225]
160 [ 0.10000751] [ 0.29999563]
180 [ 0.10000186] [ 0.29999894]
200 [ 0.10000047] [ 0.29999974]

可以看到,經(jīng)過200步泉瞻,準(zhǔn)確的說在80步左右的時(shí)候脉漏,我們的tensorflow已經(jīng)能夠很準(zhǔn)確的將Weights和Bias學(xué)習(xí)出來了,有木有感覺很強(qiáng)大袖牙,哈哈侧巨!

3、tf.Session

Session 是 Tensorflow 為了控制,和輸出文件的執(zhí)行的語句. 運(yùn)行 session.run() 可以獲得你要得知的運(yùn)算結(jié)果, 或者是你所要運(yùn)算的部分鞭达,有兩種使用Session的方式司忱,我們可以從下面的例子中看出來,但在實(shí)際中,我們更推薦后者:

import tensorflow as tf

matrix1 = tf.constant([[3,3]])
matrix2 = tf.constant([[2],[2]])

product = tf.matmul(matrix1,matrix2)

sess = tf.Session()
result = sess.run(product)
print(result)
sess.close()


with tf.Session() as sess:
    result2 = sess.run(product)
    print(result2)

4畴蹭、tf.Variable

在 Tensorflow 中坦仍,定義了某字符串是變量,它才是變量叨襟,這一點(diǎn)是與 Python 所不同的繁扎。定義語法: state = tf.Variable().如果你在 Tensorflow 中設(shè)定了變量,那么初始化變量是最重要的:觥梳玫!所以定義了變量以后, 一定要定義 init = tf.global_variables_initializer().到這里變量還是沒有被激活,需要再在 sess 里, sess.run(init) , 激活 init 這一步.

import tensorflow as tf

#定義變量墓怀,給定初始值和name
state = tf.Variable(0,name="counter")
#counter:0
print(state.name)

one = tf.constant(1)

new_value = tf.add(state,one)
update = tf.assign(state,new_value)

#這里只是定義汽纠,必須用session.run來執(zhí)行
init = tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)
    for _ in range(3):
        sess.run(update)
        print(sess.run(state))

5、TF placeholder

placeholder 是 Tensorflow 中的占位符傀履,暫時(shí)儲存變量.
Tensorflow 如果想要從外部傳入data, 那就需要用到 tf.placeholder(), 然后以這種形式傳輸數(shù)據(jù) sess.run(***, feed_dict={input: **}).

import tensorflow as tf

input1 = tf.placeholder(dtype=tf.float32)
input2 = tf.placeholder(dtype=tf.float32)

output = tf.multiply(input1,input2)

with tf.Session() as sess:
    print(sess.run(output,feed_dict={input1:[3.],input2:[5]}))
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末虱朵,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子钓账,更是在濱河造成了極大的恐慌碴犬,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,820評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件梆暮,死亡現(xiàn)場離奇詭異服协,居然都是意外死亡啦粹,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,648評論 3 399
  • 文/潘曉璐 我一進(jìn)店門忍饰,熙熙樓的掌柜王于貴愁眉苦臉地迎上來艾蓝,“玉大人斗塘,你說我怎么就攤上這事馍盟。” “怎么了俱两?”我有些...
    開封第一講書人閱讀 168,324評論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長休讳。 經(jīng)常有香客問我俊柔,道長,這世上最難降的妖魔是什么雏婶? 我笑而不...
    開封第一講書人閱讀 59,714評論 1 297
  • 正文 為了忘掉前任留晚,我火速辦了婚禮,結(jié)果婚禮上错维,老公的妹妹穿的比我還像新娘赋焕。我一直安慰自己,他們只是感情好隆判,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,724評論 6 397
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著捎泻,像睡著了一般笆豁。 火紅的嫁衣襯著肌膚如雪闯狱。 梳的紋絲不亂的頭發(fā)上抛计,一...
    開封第一講書人閱讀 52,328評論 1 310
  • 那天瘦陈,我揣著相機(jī)與錄音晨逝,去河邊找鬼。 笑死捉貌,一個(gè)胖子當(dāng)著我的面吹牛冬念,可吹牛的內(nèi)容都是我干的趁窃。 我是一名探鬼主播急前,決...
    沈念sama閱讀 40,897評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼醒陆,長吁一口氣:“原來是場噩夢啊……” “哼裆针!你這毒婦竟也來了刨摩?” 一聲冷哼從身側(cè)響起据块,我...
    開封第一講書人閱讀 39,804評論 0 276
  • 序言:老撾萬榮一對情侶失蹤码邻,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后另假,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體像屋,經(jīng)...
    沈念sama閱讀 46,345評論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡边篮,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,431評論 3 340
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了凌受。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片挠进。...
    茶點(diǎn)故事閱讀 40,561評論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡誊册,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出君旦,到底是詐尸還是另有隱情嘲碱,我是刑警寧澤金砍,帶...
    沈念sama閱讀 36,238評論 5 350
  • 正文 年R本政府宣布,位于F島的核電站麦锯,受9級特大地震影響恕稠,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜离咐,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,928評論 3 334
  • 文/蒙蒙 一谱俭、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧宵蛀,春花似錦、人聲如沸县貌。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,417評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽煤痕。三九已至梧宫,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間摆碉,已是汗流浹背塘匣。 一陣腳步聲響...
    開封第一講書人閱讀 33,528評論 1 272
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留巷帝,地道東北人忌卤。 一個(gè)月前我還...
    沈念sama閱讀 48,983評論 3 376
  • 正文 我出身青樓,卻偏偏與公主長得像楞泼,于是被迫代替她去往敵國和親驰徊。 傳聞我的和親對象是個(gè)殘疾皇子笤闯,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,573評論 2 359

推薦閱讀更多精彩內(nèi)容

  • 簡單線性回歸 import tensorflow as tf import numpy # 創(chuàng)造數(shù)據(jù) x_dat...
    CAICAI0閱讀 3,551評論 0 49
  • 昨天放量大漲突破下降趨勢線,未未來幾日的上漲打開了空間棍厂。今日股指在猶豫中前行颗味,說明中長期均線對股指的反壓還是挺...
    交易的三根木頭閱讀 265評論 3 1
  • 時(shí)刻準(zhǔn)備著 時(shí)刻猶豫著 時(shí)刻徘徊著 一顆靈動的心 其實(shí)是偽裝者 不安的心 其實(shí)是那滑稽的夢想 它隱隱約約 想要大聲...
    時(shí)而復(fù)活閱讀 243評論 0 0
  • 不知道什么時(shí)候,拖延癥似乎成了生活中必不可少的一部分牺弹。 仔細(xì)回想了一下浦马,這個(gè)詞頻繁出現(xiàn)在生活中,也就是步入大學(xué)這幾...
    苒苒rayne閱讀 360評論 0 0
  • 我向你身邊走過風(fēng)起 , 你從我身邊經(jīng)過花落鹃锈, 人生最美是錯過荤胁。
    子禾菇娘Shirley閱讀 207評論 0 1