# coding:utf-8
# 導(dǎo)入tensorflow举户。
# 這句import tensorflow as tf是導(dǎo)入TensorFlow約定俗成的做法罐栈,請大家記住检柬。
import tensorflow as tf
# 導(dǎo)入MNIST教學(xué)的模塊
from tensorflow.examples.tutorials.mnist import input_data
# 與之前一樣椅邓,讀入MNIST數(shù)據(jù)
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
# 創(chuàng)建x贸铜,x是一個(gè)占位符(placeholder)耙箍,代表待識(shí)別的圖片
x = tf.placeholder(tf.float32, [None, 784])
# W是Softmax模型的參數(shù),將一個(gè)784維的輸入轉(zhuǎn)換為一個(gè)10維的輸出
# 在TensorFlow中瞬痘,變量的參數(shù)用tf.Variable表示
W = tf.Variable(tf.zeros([784, 10]))
# b是又一個(gè)Softmax模型的參數(shù)故慈,我們一般叫做“偏置項(xiàng)”(bias)。
b = tf.Variable(tf.zeros([10]))
# y=softmax(Wx + b)框全,y表示模型的輸出
y = tf.nn.softmax(tf.matmul(x, W) + b)
# y_是實(shí)際的圖像標(biāo)簽察绷,同樣以占位符表示。
y_ = tf.placeholder(tf.float32, [None, 10])
# 至此津辩,我們得到了兩個(gè)重要的Tensor:y和y_拆撼。
# y是模型的輸出,y_是實(shí)際的圖像標(biāo)簽喘沿,不要忘了y_是獨(dú)熱表示的
# 下面我們就會(huì)根據(jù)y和y_構(gòu)造損失
# 根據(jù)y, y_構(gòu)造交叉熵?fù)p失
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y)))
# 有了損失闸度,我們就可以用隨機(jī)梯度下降針對模型的參數(shù)(W和b)進(jìn)行優(yōu)化
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
# 創(chuàng)建一個(gè)Session。只有在Session中才能運(yùn)行優(yōu)化步驟train_step蚜印。
sess = tf.InteractiveSession()
# 運(yùn)行之前必須要初始化所有變量莺禁,分配內(nèi)存。
tf.global_variables_initializer().run()
print('start training...')
# 進(jìn)行1000步梯度下降
for _ in range(1000):
# 在mnist.train中取100個(gè)訓(xùn)練數(shù)據(jù)
# batch_xs是形狀為(100, 784)的圖像數(shù)據(jù)窄赋,batch_ys是形如(100, 10)的實(shí)際標(biāo)簽
# batch_xs, batch_ys對應(yīng)著兩個(gè)占位符x和y_
batch_xs, batch_ys = mnist.train.next_batch(100)
# 在Session中運(yùn)行train_step哟冬,運(yùn)行時(shí)要傳入占位符的值
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
# 正確的預(yù)測結(jié)果
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
# 計(jì)算預(yù)測準(zhǔn)確率楼熄,它們都是Tensor
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
# 在Session中運(yùn)行Tensor可以得到Tensor的值
# 這里是獲取最終模型的正確率
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})) # 0.9185
example01 minist softmax
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
- 文/潘曉璐 我一進(jìn)店門峰锁,熙熙樓的掌柜王于貴愁眉苦臉地迎上來萎馅,“玉大人,你說我怎么就攤上這事虹蒋∶臃迹” “怎么了?”我有些...
- 文/不壞的土叔 我叫張陵魄衅,是天一觀的道長峭竣。 經(jīng)常有香客問我,道長晃虫,這世上最難降的妖魔是什么皆撩? 我笑而不...
- 正文 為了忘掉前任,我火速辦了婚禮哲银,結(jié)果婚禮上扛吞,老公的妹妹穿的比我還像新娘。我一直安慰自己荆责,他們只是感情好滥比,可當(dāng)我...
- 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著做院,像睡著了一般盲泛。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上键耕,一...
- 文/蒼蘭香墨 我猛地睜開眼虏杰,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了勒虾?” 一聲冷哼從身側(cè)響起纺阔,我...
- 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎修然,沒想到半個(gè)月后笛钝,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
- 正文 獨(dú)居荒郊野嶺守林人離奇死亡愕宋,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
- 正文 我和宋清朗相戀三年玻靡,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片中贝。...
- 正文 年R本政府宣布绣否,位于F島的核電站誊涯,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏蒜撮。R本人自食惡果不足惜暴构,卻給世界環(huán)境...
- 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望段磨。 院中可真熱鬧取逾,春花似錦、人聲如沸薇溃。這莊子的主人今日做“春日...
- 文/蒼蘭香墨 我抬頭看了看天上的太陽沐序。三九已至琉用,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間策幼,已是汗流浹背邑时。 一陣腳步聲響...
- 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親浅浮。 傳聞我的和親對象是個(gè)殘疾皇子沫浆,可洞房花燭夜當(dāng)晚...
推薦閱讀更多精彩內(nèi)容
- 引用stackoverflow上面一個(gè)人個(gè)回答: Having two different functions i...
- softmax_cross_entropy_with_logits之前加softmax層: softmax_cro...
- 我們知道卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像領(lǐng)域的應(yīng)用已經(jīng)非常廣泛了专执,一般一個(gè)CNN網(wǎng)絡(luò)主要包含卷積層,池化層(pooli...
- 夜里病房的冷氣很足郁油,我的折疊椅并在你的床邊本股,你總怕我著涼,常常要把自己的被子拉一角給我桐腌。因?yàn)榧膊〉脑蛑粝裕汩_始整夜...