SoftmaxRegression識別手寫數(shù)字
整個神經(jīng)網(wǎng)絡(luò)的流程:
定義算法公式,也就是神經(jīng)網(wǎng)絡(luò)的forward時的計算
定義loss庶香,選定優(yōu)化器,并指定優(yōu)化器優(yōu)化loss
迭代地對數(shù)據(jù)進(jìn)行訓(xùn)練
在測試集或驗證集上對準(zhǔn)確率進(jìn)行評測
Logistic回歸的回顧(二分類)
在Logistic回歸中比較重要的有兩個公式,一個是階躍函數(shù):
另一個是對應(yīng)的損失函數(shù)
最終号杏,Logistic回歸需要求出的是2個概率:
Softmax Regression 求k個概率(多分類):機(jī)器學(xué)習(xí)中把某類的特征,然后將特征轉(zhuǎn)化為判定某一類的概率。
tf.InteractiveSession()會將這個Session注冊為默認(rèn)的session盾致。
placeholder()輸入數(shù)據(jù)的地方主经,第一個參數(shù)是數(shù)據(jù)類型,第二個是shape數(shù)據(jù)的尺寸[None, 784]庭惜,None代表不限條數(shù)的輸入罩驻,784維的向量
為w,b創(chuàng)建Variable對象护赊,在模型迭代訓(xùn)練中是持久化的惠遏,而tensor一旦被用掉就會消失。
tensorflow最好的地方不是定義公式骏啰,而是將forward和backward的內(nèi)容自動實現(xiàn)节吮,只要接下來定義好loss,訓(xùn)練的時候會自動求導(dǎo)并進(jìn)行梯度下降器一,完成對Softmax Regression模型參數(shù)的自動學(xué)習(xí)课锌。
需要定義一個loss function來描述模型對問題的分類精度。Loss越小祈秕,與真實偏差越小渺贤,訓(xùn)練的目的就是減小loss。
對于多分類请毛,通常使用cross-entropy(交叉熵)最為loss function志鞍。
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
tf.reduce_sum()求和,tf.reduce_mean()求平均值
每個被定義的公式只是個節(jié)點(diǎn)方仿,只有調(diào)用run()方法的時候才會啟動
代碼:
mnistSoftmaxRegression.py
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
# one_hot是10維的向量
mnist = input_data.read_data_sets("MNIST-data/", one_hot=True)
# 查看一下數(shù)據(jù)集的情況
# print(mnist.train.image.shape, mnist.train.labels.shape)
# print(mnist.test.image.shape, mnist.test.labels.shape)
# print(mnist.validation.image.shape, mnist.validation.labels.shape)
sess = tf.InteractiveSession()
x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
# 定義cross-entropy
y_ = tf.placeholder(tf.float32, [None,10])
# 用一個placeholder 輸入真實的label固棚,y_ * tf.log(y)就是計算yi*log(yi)
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
# 然后定義一個隨機(jī)梯度下降算法SGD(Stochastic Dradient Desent)
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
# 全局參數(shù)初始化
tf.global_variables_initializer().run()
for i in range(10000):
batch_xs, batch_ys = mnist.train.next_batch(100)
train_step.run({x: batch_xs, y_:batch_ys})
if i % 1000 == 0:
print(i)
# 對模型的準(zhǔn)確率進(jìn)行驗證tf.argmax(y, 1)預(yù)測的最大值,和樣本的真實數(shù)字比較
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
# 用tf.cast將correct_prediction輸出的bool值轉(zhuǎn)換為float32
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
#
print(accuracy.eval({x: mnist.test.images, y_: mnist.test.labels}))