2018-08-06 Tensorflow基礎構架

一冕广、處理結構

??Tensorflow 首先要定義神經(jīng)網(wǎng)絡的結構, 然后再把數(shù)據(jù)放入結構當中去運算和 training.

image

??因為TensorFlow是采用數(shù)據(jù)流圖(data flow graphs)來計算, 所以首先我們得創(chuàng)建一個數(shù)據(jù)流圖, 然后再將我們的數(shù)據(jù)(數(shù)據(jù)以張量(tensor)的形式存在)放在數(shù)據(jù)流圖中計算. 節(jié)點(Nodes)在圖中表示數(shù)學操作,圖中的線(edges)則表示在節(jié)點間相互聯(lián)系的多維數(shù)據(jù)數(shù)組, 即張量(tensor). 訓練模型時tensor會不斷的從數(shù)據(jù)流圖中的一個節(jié)點flow到另一節(jié)點, 這就是TensorFlow名字的由來.

張量(Tensor)

??張量有多種. 零階張量為 純量或標量 (scalar) 也就是一個數(shù)值. 比如 [1]
??一階張量為 向量 (vector), 比如 一維的 [1, 2, 3]
??二階張量為 矩陣 (matrix), 比如 二維的 [[1, 2, 3],[4, 5, 6],[7, 8, 9]]
??以此類推, 還有 三階 三維的 …


參考鏈接:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/2-1-structure/

二、例子

  1. 創(chuàng)建數(shù)據(jù)
    ??導入tensorflow和numpy偿洁,使用numpy創(chuàng)建 x 和 y 的數(shù)據(jù)。另外沟优,由于tensorflow中大部分的數(shù)據(jù)都是float32類型涕滋,所以這里使用numpy創(chuàng)建float32類型的數(shù)據(jù)。
import tensorflow as tf

import numpy as np

# create data

x_data=np.random.rand(100).astype(np.float32)

y_data=x_data*0.1+0.3

2.搭建模型
??用 tf.Variable 來創(chuàng)建描述 y 的參數(shù). 我們可以把 y_data = x_data*0.1 + 0.3 想象成 y=Weights * x + biases, 然后神經(jīng)網(wǎng)絡也就是學著把 Weights 變成 0.1, biases 變成 0.3.

Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
biases = tf.Variable(tf.zeros([1]))

y = Weights*x_data + biases

3.計算誤差
??將殘差平方的均值作為誤差

loss = tf.reduce_mean(tf.square(y-y_data))

4.傳播誤差
??反向傳遞誤差的工作就交給optimizer了, 我們使用的誤差傳遞方法是梯度下降法: Gradient Descent 讓后我們使用 optimizer 來進行參數(shù)的更新.

optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
  1. 訓練
    ??到目前為止, 我們只是建立了神經(jīng)網(wǎng)絡的結構, 還沒有使用這個結構. 在使用這個結構之前, 我們必須先初始化所有之前定義的Variable, 所以這一步是很重要的!
# init = tf.initialize_all_variables() # tf 馬上就要廢棄這種寫法
init = tf.global_variables_initializer()  # 替換成這樣就好

??接著,我們再創(chuàng)建會話 Session. 我們用 Session 來執(zhí)行 init 初始化步驟. 并且, 用 Session 來 run 每一次 training 的數(shù)據(jù). 逐步提升神經(jīng)網(wǎng)絡的預測準確性.

sess = tf.Session()
sess.run(init)          # Very important

for step in range(201):
    sess.run(train)
    if step % 20 == 0:
        print(step, sess.run(Weights), sess.run(biases))

參考鏈接:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/2-2-example2/

三挠阁、Session會話控制

??Session 是 Tensorflow 為了控制,和輸出文件的執(zhí)行的語句. 運行 session.run() 可以獲得你要得知的運算結果, 或者是你所要運算的部分宾肺。
??先建立兩個矩陣m1和m2,計算它們的乘積product侵俗,然后在使用Session來激活product 并得到計算結果. 有兩種形式使用會話控制 Session锨用。

import tensorflow as tf

# create two matrices

m1= tf.constant([[3,3]])
m2= tf.constant([[2],
                       [2]])
product = tf.matmul(m1,m2)
# method 1
sess = tf.Session()
result = sess.run(product)
print(result)
sess.close()
# output: [[12]]

# method 2
with tf.Session() as sess:
    result2 = sess.run(product)
    print(result2)
# output: [[12]]

參考鏈接:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/2-3-session/

四、Variable變量

??tensorflow中需要使用tensorflow.Variable來定義變量

mport tensorflow as tf

state = tf.Variable(0, name='counter')

# 定義常量 one
one = tf.constant(1)

# 定義加法步驟 (注: 此步并沒有直接計算)
new_value = tf.add(state, one)

# 將 State 更新成 new_value
update = tf.assign(state, new_value)

??如果在 Tensorflow 中設定了變量隘谣,那么初始化變量是最重要的T鲇怠!所以定義了變量以后, 一定要定義tf.global_variables_initializer()寻歧。到這里變量還是沒有被激活掌栅,需要再在 sess 里, sess.run(init) , 激活 init 這一步。

# 如果定義 Variable, 就一定要 initialize
# init = tf.initialize_all_variables() # tf 馬上就要廢棄這種寫法
init = tf.global_variables_initializer()  # 替換成這樣就好

# 使用 Session
with tf.Session() as sess:
    sess.run(init)
    for _ in range(3):
        sess.run(update)
        print(sess.run(state))

??注意:直接 print(state) 不起作用B敕骸猾封!
??一定要把 sess 的指針指向 state 再進行 print 才能得到想要的結果!


參考鏈接:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/2-4-variable/

五噪珊、Placeholder傳入值

??placeholder 是 Tensorflow 中的占位符晌缘,暫時儲存變量。
??Tensorflow 如果想要從外部傳入data, 那就需要用到 tf.placeholder(), 然后以這種形式傳輸數(shù)據(jù) sess.run(***, feed_dict={input: **})痢站。

import tensorflow as tf

#在 Tensorflow 中需要定義 placeholder 的 type 磷箕,一般為 float32 形式
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)

# mul = multiply 是將input1和input2 做乘法運算,并輸出為 output 
ouput = tf.multiply(input1, input2)

??接下來, 傳值的工作交給了 sess.run() , 需要傳入的值放在了feed_dict={} 并一一對應每一個 input. placeholder 與 feed_dict={} 是綁定在一起出現(xiàn)的瑟押。

with tf.Session() as sess:
    print(sess.run(ouput, feed_dict={input1: [7.], input2: [2.]}))
# output: [ 14.]

參考鏈接:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/2-5-placeholde/#%E7%AE%80%E5%8D%95%E8%BF%90%E7%94%A8

六搀捷、激勵函數(shù)

??激勵函數(shù)運行時激活神經(jīng)網(wǎng)絡中某一部分神經(jīng)元,將激活信息向后傳入下一層的神經(jīng)系統(tǒng)。激勵函數(shù)的實質(zhì)是非線性方程嫩舟。 Tensorflow 的神經(jīng)網(wǎng)絡 里面處理較為復雜的問題時都會需要運用激勵函數(shù) activation function 氢烘。


參考鏈接:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/2-6-activation/

最后編輯于
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市家厌,隨后出現(xiàn)的幾起案子播玖,更是在濱河造成了極大的恐慌,老刑警劉巖饭于,帶你破解...
    沈念sama閱讀 218,284評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件蜀踏,死亡現(xiàn)場離奇詭異,居然都是意外死亡掰吕,警方通過查閱死者的電腦和手機果覆,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,115評論 3 395
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來殖熟,“玉大人局待,你說我怎么就攤上這事×馐簦” “怎么了钳榨?”我有些...
    開封第一講書人閱讀 164,614評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長纽门。 經(jīng)常有香客問我薛耻,道長,這世上最難降的妖魔是什么赏陵? 我笑而不...
    開封第一講書人閱讀 58,671評論 1 293
  • 正文 為了忘掉前任饼齿,我火速辦了婚禮,結果婚禮上瘟滨,老公的妹妹穿的比我還像新娘候醒。我一直安慰自己,他們只是感情好杂瘸,可當我...
    茶點故事閱讀 67,699評論 6 392
  • 文/花漫 我一把揭開白布倒淫。 她就那樣靜靜地躺著,像睡著了一般败玉。 火紅的嫁衣襯著肌膚如雪敌土。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,562評論 1 305
  • 那天运翼,我揣著相機與錄音返干,去河邊找鬼。 笑死血淌,一個胖子當著我的面吹牛矩欠,可吹牛的內(nèi)容都是我干的财剖。 我是一名探鬼主播,決...
    沈念sama閱讀 40,309評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼癌淮,長吁一口氣:“原來是場噩夢啊……” “哼躺坟!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起乳蓄,我...
    開封第一講書人閱讀 39,223評論 0 276
  • 序言:老撾萬榮一對情侶失蹤咪橙,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后虚倒,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體美侦,經(jīng)...
    沈念sama閱讀 45,668評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,859評論 3 336
  • 正文 我和宋清朗相戀三年魂奥,在試婚紗的時候發(fā)現(xiàn)自己被綠了菠剩。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,981評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡耻煤,死狀恐怖赠叼,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情违霞,我是刑警寧澤,帶...
    沈念sama閱讀 35,705評論 5 347
  • 正文 年R本政府宣布瞬场,位于F島的核電站买鸽,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏贯被。R本人自食惡果不足惜眼五,卻給世界環(huán)境...
    茶點故事閱讀 41,310評論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望彤灶。 院中可真熱鬧看幼,春花似錦、人聲如沸幌陕。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,904評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽搏熄。三九已至棚唆,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間心例,已是汗流浹背宵凌。 一陣腳步聲響...
    開封第一講書人閱讀 33,023評論 1 270
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留止后,地道東北人瞎惫。 一個月前我還...
    沈念sama閱讀 48,146評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親瓜喇。 傳聞我的和親對象是個殘疾皇子挺益,可洞房花燭夜當晚...
    茶點故事閱讀 44,933評論 2 355