什么是Data Flow Graph?
- Data flow graphs — 數(shù)據(jù)流圖
- Tensors — 張量
Data flow graphs是一個(gè)描述數(shù)學(xué)計(jì)算的有向圖柴梆,由節(jié)點(diǎn)和邊構(gòu)成植阴。節(jié)點(diǎn)通常用于實(shí)現(xiàn)數(shù)學(xué)操作猾昆,同時(shí)也可以表征endpoints來獲取數(shù)據(jù)或輸出結(jié)果跪呈,或者讀寫持久化變量碉输。邊描述了節(jié)點(diǎn)之間的輸入輸出關(guān)系秫筏。這些數(shù)據(jù)邊搭載了動態(tài)多維數(shù)組隘冲,也就是tensors。tensors在圖中的流動欺劳,故TensorFlow以此得名唧取。節(jié)點(diǎn)被分派給計(jì)算設(shè)備,一旦所有入邊的tensors可用時(shí)划提,計(jì)算異步并行執(zhí)行枫弟。
Data Flow Graph
示例程序
我們可以創(chuàng)建一個(gè)名為TensorFlow的目錄,然后創(chuàng)建一個(gè)fit_a_line.py
的文件鹏往,代碼如下:
import tensorflow as tf
import numpy as np
# Create 100 phony x, y data points in NumPy, y = x * 0.1 + 0.3
# 使用NumPy創(chuàng)建100個(gè)虛假的x, y數(shù)據(jù)點(diǎn)淡诗,滿足y = x * 0.1 + 0.3
x_data = np.random.rand(100).astype("float32")
y_data = x_data * 0.1 + 0.3
# Try to find values for W and b that compute y_data = W * x_data + b
# (We know that W should be 0.1 and b 0.3, but Tensorflow will
# figure that out for us.)
# 設(shè)法找出W和b滿足y_data = W * x_data + b
# 我們知道W是0.1,b是0.3,但是想讓Tensorflow幫我們求得
W = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
b = tf.Variable(tf.zeros([1]))
y = W * x_data + b
# Minimize the mean squared errors.
# 使得均方差最小
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
# Before starting, initialize the variables. We will 'run' this first.
# 開始前初始化變量韩容,我們先運(yùn)行它
init = tf.initialize_all_variables()
# Launch the graph.
# 生成圖
sess = tf.Session()
sess.run(init)
# Fit the line.
# 擬合曲線
for step in xrange(201):
sess.run(train)
if step % 20 == 0:
print(step, sess.run(W), sess.run(b))
# Learns best fit is W: [0.1], b: [0.3]
代碼的第一部分構(gòu)建了data flow graph款违。TensorFlow并不預(yù)先執(zhí)行任何的計(jì)算,直到我們創(chuàng)建了session并且調(diào)用了run函數(shù)群凶。
使用python fit_a_line.py
運(yùn)行該文件插爹,運(yùn)行結(jié)果如下:
(0, array([-0.01760098], dtype=float32), array([ 0.46823004], dtype=float32))
(20, array([ 0.0524787], dtype=float32), array([ 0.3234933], dtype=float32))
(40, array([ 0.08600281], dtype=float32), array([ 0.30691987], dtype=float32))
(60, array([ 0.0958772], dtype=float32), array([ 0.30203822], dtype=float32))
(80, array([ 0.09878565], dtype=float32), array([ 0.30060035], dtype=float32))
(100, array([ 0.09964232], dtype=float32), array([ 0.30017683], dtype=float32))
(120, array([ 0.09989465], dtype=float32), array([ 0.30005211], dtype=float32))
(140, array([ 0.09996897], dtype=float32), array([ 0.30001536], dtype=float32))
(160, array([ 0.09999087], dtype=float32), array([ 0.30000454], dtype=float32))
(180, array([ 0.09999729], dtype=float32), array([ 0.30000135], dtype=float32))
(200, array([ 0.0999992], dtype=float32), array([ 0.3000004], dtype=float32))
可以看到,經(jīng)過200次的訓(xùn)練后座掘,得到的W非常接近0.1递惋,得到的b非常接近0.3。