example01 minist softmax

# coding:utf-8
# 導(dǎo)入tensorflow举户。
# 這句import tensorflow as tf是導(dǎo)入TensorFlow約定俗成的做法罐栈,請大家記住检柬。
import tensorflow as tf
# 導(dǎo)入MNIST教學(xué)的模塊
from tensorflow.examples.tutorials.mnist import input_data
# 與之前一樣椅邓,讀入MNIST數(shù)據(jù)
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

# 創(chuàng)建x贸铜,x是一個(gè)占位符(placeholder)耙箍,代表待識(shí)別的圖片
x = tf.placeholder(tf.float32, [None, 784])

# W是Softmax模型的參數(shù),將一個(gè)784維的輸入轉(zhuǎn)換為一個(gè)10維的輸出
# 在TensorFlow中瞬痘,變量的參數(shù)用tf.Variable表示
W = tf.Variable(tf.zeros([784, 10]))
# b是又一個(gè)Softmax模型的參數(shù)故慈,我們一般叫做“偏置項(xiàng)”(bias)。
b = tf.Variable(tf.zeros([10]))

# y=softmax(Wx + b)框全,y表示模型的輸出
y = tf.nn.softmax(tf.matmul(x, W) + b)

# y_是實(shí)際的圖像標(biāo)簽察绷,同樣以占位符表示。
y_ = tf.placeholder(tf.float32, [None, 10])

# 至此津辩,我們得到了兩個(gè)重要的Tensor:y和y_拆撼。
# y是模型的輸出,y_是實(shí)際的圖像標(biāo)簽喘沿,不要忘了y_是獨(dú)熱表示的
# 下面我們就會(huì)根據(jù)y和y_構(gòu)造損失

# 根據(jù)y, y_構(gòu)造交叉熵?fù)p失
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y)))

# 有了損失闸度,我們就可以用隨機(jī)梯度下降針對模型的參數(shù)(W和b)進(jìn)行優(yōu)化
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

# 創(chuàng)建一個(gè)Session。只有在Session中才能運(yùn)行優(yōu)化步驟train_step蚜印。
sess = tf.InteractiveSession()
# 運(yùn)行之前必須要初始化所有變量莺禁,分配內(nèi)存。
tf.global_variables_initializer().run()
print('start training...')

# 進(jìn)行1000步梯度下降
for _ in range(1000):
    # 在mnist.train中取100個(gè)訓(xùn)練數(shù)據(jù)
    # batch_xs是形狀為(100, 784)的圖像數(shù)據(jù)窄赋,batch_ys是形如(100, 10)的實(shí)際標(biāo)簽
    # batch_xs, batch_ys對應(yīng)著兩個(gè)占位符x和y_
    batch_xs, batch_ys = mnist.train.next_batch(100)
    # 在Session中運(yùn)行train_step哟冬,運(yùn)行時(shí)要傳入占位符的值
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

# 正確的預(yù)測結(jié)果
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
# 計(jì)算預(yù)測準(zhǔn)確率楼熄,它們都是Tensor
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
# 在Session中運(yùn)行Tensor可以得到Tensor的值
# 這里是獲取最終模型的正確率
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))  # 0.9185
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市浩峡,隨后出現(xiàn)的幾起案子可岂,更是在濱河造成了極大的恐慌,老刑警劉巖翰灾,帶你破解...
    沈念sama閱讀 217,826評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件缕粹,死亡現(xiàn)場離奇詭異,居然都是意外死亡预侯,警方通過查閱死者的電腦和手機(jī)致开,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,968評論 3 395
  • 文/潘曉璐 我一進(jìn)店門峰锁,熙熙樓的掌柜王于貴愁眉苦臉地迎上來萎馅,“玉大人,你說我怎么就攤上這事虹蒋∶臃迹” “怎么了?”我有些...
    開封第一講書人閱讀 164,234評論 0 354
  • 文/不壞的土叔 我叫張陵魄衅,是天一觀的道長峭竣。 經(jīng)常有香客問我,道長晃虫,這世上最難降的妖魔是什么皆撩? 我笑而不...
    開封第一講書人閱讀 58,562評論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮哲银,結(jié)果婚禮上扛吞,老公的妹妹穿的比我還像新娘。我一直安慰自己荆责,他們只是感情好滥比,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,611評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著做院,像睡著了一般盲泛。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上键耕,一...
    開封第一講書人閱讀 51,482評論 1 302
  • 那天寺滚,我揣著相機(jī)與錄音,去河邊找鬼屈雄。 笑死村视,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的棚亩。 我是一名探鬼主播蓖议,決...
    沈念sama閱讀 40,271評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼虏杰,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了勒虾?” 一聲冷哼從身側(cè)響起纺阔,我...
    開封第一講書人閱讀 39,166評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎修然,沒想到半個(gè)月后笛钝,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,608評論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡愕宋,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,814評論 3 336
  • 正文 我和宋清朗相戀三年玻靡,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片中贝。...
    茶點(diǎn)故事閱讀 39,926評論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡囤捻,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出邻寿,到底是詐尸還是另有隱情蝎土,我是刑警寧澤,帶...
    沈念sama閱讀 35,644評論 5 346
  • 正文 年R本政府宣布绣否,位于F島的核電站誊涯,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏蒜撮。R本人自食惡果不足惜暴构,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,249評論 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望段磨。 院中可真熱鬧取逾,春花似錦、人聲如沸薇溃。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,866評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽沐序。三九已至琉用,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間策幼,已是汗流浹背邑时。 一陣腳步聲響...
    開封第一講書人閱讀 32,991評論 1 269
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留特姐,地道東北人晶丘。 一個(gè)月前我還...
    沈念sama閱讀 48,063評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親浅浮。 傳聞我的和親對象是個(gè)殘疾皇子沫浆,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,871評論 2 354

推薦閱讀更多精彩內(nèi)容