基本概念
- 使用圖(graph)來表示計(jì)算任務(wù)
- 在會話(session)中執(zhí)行圖
- 使用(tensor)來表示數(shù)據(jù)結(jié)構(gòu)
- 使用(variable)來維護(hù)狀態(tài)
- 使用feed與fetch為任意的操作賦值或者獲取數(shù)據(jù)
就是說,任何的運(yùn)算要用圖來進(jìn)行計(jì)算,圖要放在一個(gè)更大的環(huán)境中執(zhí)行艰争,也就是session上陕。在tensorflow中,基本的數(shù)據(jù)結(jié)構(gòu)是tensor阶捆,獲取數(shù)據(jù)與添加數(shù)據(jù)使用feed和fetch凌节。
構(gòu)建一個(gè)tensorflow模型的基本步驟
一般流程是先創(chuàng)建一個(gè)圖(graph),然后在會話中啟動它(session)洒试。
更加方便的一種是Interactivesession類倍奢,使用他,可以更加方便的 構(gòu)建你的代碼垒棋,他能在讓你運(yùn)行圖的時(shí)候插入一些圖娱挨。
如果沒有interactivesession類,你需要在啟動session之前構(gòu)建整個(gè)計(jì)算圖捕犬,然后啟動這個(gè)計(jì)算圖跷坝。
import input_data
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)
import tensorflow as tf
sess = tf.InteractiveSession()
構(gòu)建softmax回歸模型
占位符
通過為輸入與輸出設(shè)置節(jié)點(diǎn),開始構(gòu)建圖:
x = tf.placeholder("float", shape=[None, 784])
y_ = tf.placeholder("float", shape=[None, 10])
這里的x碉碉,y都不是特定的值柴钻,而是一個(gè)占位符,在tensorflow運(yùn)行對的時(shí)時(shí)候根據(jù)這個(gè)占位符輸入具體的值垢粮。
輸入圖片x表示 表示一個(gè)二位的浮點(diǎn)數(shù)張量贴届,這里分配給他的shape=[None,784],784表示一張展平的圖片維度蜡吧,None表示其值的大小不一定毫蚓。雖然palceholder的shape是可選的,但是有了它昔善,tensorflow可以捕捉應(yīng)為數(shù)據(jù)維度不一樣而導(dǎo)致的錯(cuò)誤元潘。
變量
在機(jī)器學(xué)習(xí)的過程中,參數(shù)一般使用變量來表示君仆。
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
我們在調(diào)用tf.variable的時(shí)候傳入?yún)?shù)翩概,在這個(gè)例子里面牲距,把
w和b都賦值為0,其中w是一個(gè)784乘以10的矩陣钥庇,b是一個(gè)一維向量牍鞠。
變量需要通過session初始化后,才能夠在session中使用
sess.run(tf.initialize_all_variables())
類別預(yù)測與損失函數(shù)
把向量化后的圖片x和權(quán)重矩陣w相乘评姨,加上偏置b难述,然后分別計(jì)算每個(gè)分類的softmax的概率值。
y = tf.nn.softmax(tf.matmul(x,W) + b)
損失函數(shù)就是目標(biāo)類別與預(yù)測類別之間的交叉熵吐句。
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
tf.reduce_sum把minibatch里的每張圖片的交叉熵值都加起來了龄广。我們計(jì)算的交叉熵是指整個(gè)minibatch的。
訓(xùn)練模型
我們已經(jīng)定義好模型與損失函數(shù)蕴侧,用tensorflow進(jìn)行訓(xùn)練就很簡單了:
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
這一行代碼實(shí)際上是用來往計(jì)算圖上添加一個(gè)新操作择同,其中包括計(jì)算梯度,計(jì)算每個(gè)參數(shù)的步長變化净宵,并且計(jì)算出新的參數(shù)值敲才。
返回的train_step操作對象,在運(yùn)行時(shí)會使用梯度下降來更新參數(shù)择葡。因此紧武,整個(gè)模型的訓(xùn)練可以通過反復(fù)地運(yùn)行train_step來完成。
for i in range(1000):
batch = mnist.train.next_batch(50)
train_step.run(feed_dict={x: batch[0], y_: batch[1]})
評估模型
那么我們的模型性能如何呢敏储?
首先讓我們找出那些預(yù)測正確的標(biāo)簽阻星。tf.argmax 是一個(gè)非常有用的函數(shù),它能給出某個(gè)tensor對象在某一維上的其數(shù)據(jù)最大值所在的索引值已添。由于標(biāo)簽向量是由0,1組成妥箕,因此最大值1所在的索引位置就是類別標(biāo)簽,比如tf.argmax(y,1)返回的是模型對于任一輸入x預(yù)測到的標(biāo)簽值更舞,而 tf.argmax(y_,1) 代表正確的標(biāo)簽畦幢,我們可以用 tf.equal 來檢測我們的預(yù)測是否真實(shí)標(biāo)簽匹配(索引位置一樣表示匹配)。
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
這里返回一個(gè)布爾數(shù)組缆蝉。為了計(jì)算我們分類的準(zhǔn)確率宇葱,我們將布爾值轉(zhuǎn)換為浮點(diǎn)數(shù)來代表對、錯(cuò)刊头,然后取平均值黍瞧。例如:[True, False, True, True]變?yōu)閇1,0,1,1],計(jì)算出平均值為0.75原杂。
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
最后印颤,我們可以計(jì)算出在測試數(shù)據(jù)上的準(zhǔn)確率,大概是91%污尉。
print accuracy.eval(feed_dict={x: mnist.test.images, y_: mnist.test.labels})