TensorFlow 基礎(chǔ)
本文翻譯自: 《TensorFlow Basics》, 如有侵權(quán)請聯(lián)系刪除善炫,僅限于學(xué)術(shù)交流艺谆,請勿商用虫给。如有謬誤药蜻,請聯(lián)系指出。
TensorFlow和其他數(shù)值計算庫(如NumPy)之間最顯著的區(qū)別在于TensorFlow中的操作是基于符號運(yùn)算的班利。這是一個強(qiáng)大的概念彻消,它允許TensorFlow執(zhí)行命令式庫(如NumPy)所不能做的所有事情(例如,自動區(qū)分)。但這也要付出更大的代價牛郑。在我我試圖揭秘TensorFlow淹朋,并提供一些指導(dǎo)方針和最佳實踐希痴,以便更有效地使用TensorFlow刽辙。
讓我們從一個簡單的例子開始慨灭,我們要乘以兩個隨機(jī)矩陣语稠。首先颅筋,我們看一個在NumPy完成的實施:
import numpy as np
x = np.random.normal(size=[10, 10])
y = np.random.normal(size=[10, 10])
z = np.dot(x, y)
print(z)
現(xiàn)在我們在TensorFlow中執(zhí)行完全相同的計算:
import tensorflow as tf
x = tf.random_normal([10, 10])
y = tf.random_normal([10, 10])
z = tf.matmul(x, y)
sess = tf.Session()
z_val = sess.run(z)
print(z_val)
與立即執(zhí)行計算并生成結(jié)果的NumPy不同,tensorflow只向圖中表示結(jié)果的節(jié)點(diǎn)提供一個handle(類型為Tensor)输枯。如果我們嘗試直接打印Z值议泵,我們會得到這樣的結(jié)果:
Tensor("MatMul:0", shape=(10, 10), dtype=float32)
由于兩個輸入都具有完全定義的形狀,所以tensorflow能夠推斷張量
的形狀及其類型桃熄。為了計算張量的值先口,我們需要創(chuàng)建一個會話
并使用Session.run()
方法評估它。
提示:當(dāng)使用Jupyter筆記本時瞳收,請確保在定義新節(jié)點(diǎn)之前在開始調(diào)用tf.reset_default_graph()
來清除符號圖碉京。
為了理解符號計算有多么強(qiáng)大,讓我們看看另一個例子螟深。假設(shè)我們有來自曲線(例如f(x)=5x^2+3
)的樣本谐宙,并且我們希望基于這些樣本預(yù)測f(x)
。我們定義一個參數(shù)函數(shù)g(x, w) = w0 x^2 + w1 x + w2
界弧,它是輸入x和潛在參數(shù)w的函數(shù)凡蜻,我們的目標(biāo)是找到潛在的參數(shù)搭综,使得g(x,w)≈f(x)
划栓。這可以通過最小化損失函數(shù)來完成:L(w) = ∑ (f(x) - g(x, w))^2.
兑巾。雖然這個簡單問題有一個閉合解(a closed form solution),但我們選擇使用更通用的方法忠荞,可以應(yīng)用于任意的可微函數(shù)蒋歌,并且使用隨機(jī)梯度下降。我們簡單地計算L(w)相對于一組采樣點(diǎn)上的w的平均梯度委煤,并沿相反方向移動堂油。
以下是利用TensorFlow完成的代碼:
import numpy as np
import tensorflow as tf
# Placeholders are used to feed values from python to TensorFlow ops. We define
# two placeholders, one for input feature x, and one for output y.
x = tf.placeholder(tf.float32)
y = tf.placeholder(tf.float32)
# Assuming we know that the desired function is a polynomial of 2nd degree, we
# allocate a vector of size 3 to hold the coefficients. The variable will be
# automatically initialized with random noise.
w = tf.get_variable("w", shape=[3, 1])
# We define yhat to be our estimate of y.
f = tf.stack([tf.square(x), x, tf.ones_like(x)], 1)
yhat = tf.squeeze(tf.matmul(f, w), 1)
# The loss is defined to be the l2 distance between our estimate of y and its
# true value. We also added a shrinkage term, to ensure the resulting weights
# would be small.
loss = tf.nn.l2_loss(yhat - y) + 0.1 * tf.nn.l2_loss(w)
# We use the Adam optimizer with learning rate set to 0.1 to minimize the loss.
train_op = tf.train.AdamOptimizer(0.1).minimize(loss)
def generate_data():
x_val = np.random.uniform(-10.0, 10.0, size=100)
y_val = 5 * np.square(x_val) + 3
return x_val, y_val
sess = tf.Session()
# Since we are using variables we first need to initialize them.
sess.run(tf.global_variables_initializer())
for _ in range(1000):
x_val, y_val = generate_data()
_, loss_val = sess.run([train_op, loss], {x: x_val, y: y_val})
print(loss_val)
print(sess.run([w]))
通過運(yùn)行這段代碼,你應(yīng)該看到接近這個的結(jié)果:
[4.9924135, 0.00040895029, 3.4504161]
這是我們參數(shù)的一個相對接近的近似值碧绞。
對于TensorFlow來說称诗,這只是冰山一角。許多問題头遭,例如優(yōu)化具有數(shù)百萬參數(shù)的大型神經(jīng)網(wǎng)絡(luò)寓免,只需幾行代碼就可以在TensorFlow中高效實現(xiàn)。TensorFlow考慮到了多個設(shè)備和線程的擴(kuò)展计维,并支持各種平臺袜香。