MNIST的Softmax

知識來源:《21個項目玩轉(zhuǎn)深度學習 基于TensorFlow的實踐詳解》贰剥,Tensorflow中文社區(qū)瞻讽。

了解Softmax函數(shù)

image.png

image.png

利用Softmax的MNIST數(shù)字分類

tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

mnist = input_data.read_data_sets("MNIST/",one_hot = True)

#訓練樣本鸳吸。輸入輸出
x = tf.placeholder(tf.float32,[None,784])  #輸入圖像
_y = tf.placeholder(tf.float32,[None,10])  #輸入圖像對應(yīng)labels

#構(gòu)造預測模型
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x,W)+b) #預測模型?

#損失函數(shù)優(yōu)化
cross  = tf.reduce_mean(-tf.reduce_sum(_y*tf.log(y)))   #損失函數(shù)
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross) #損失函數(shù)優(yōu)化

#計算準確度
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(_y,1))   #equal,判斷兩者是否相等(55000速勇,10)
accuray = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) #cast 數(shù)據(jù)轉(zhuǎn)換

#Tensoflow語法
sess = tf.InteractiveSession()
tf.global_variables_initializer().run() #變量初始化
for i in range(1000):
    batch_xs,batch_ys = mnist.train.next_batch(100)
    sess.run(train_step,feed_dict= {x:batch_xs,_y:batch_ys})  
    
print(sess.run(accuray,feed_dict={x:mnist.test.images,_y:mnist.test.labels}))

其中有equal晌砾,argmax,cast烦磁,reduce_mean等Tensorflow常用函數(shù)养匈。功能可運行代碼

import tensorflow as tf

v = [1,3,2,456,63,3,2]
m = [[1,23,4],[12,4,55],[1,3,2]]

v1 = [[True,False,True,False],[True,False,True,False],[True,False,True,False]]

t = [[1,2,3,4,5],[1,2,3,4,5]]
t1 = [[1,3,2,4,5],[1,3,2,4,5]]

with tf.Session() as sess:
    a = tf.argmax(v,0)  #一列中最大值
    #a1 = tf.argmax(v.T,1)   #向量不可以用行搜索
    b =tf.argmax(m,0)
    b1 = tf.argmax(m,1) #一行中最大值
    print(sess.run(a))
    #print(sess.run(a1))
    print(sess.run(b))
    print(sess.run(b1))

    c = tf.cast(v1,tf.float32) #將True,False轉(zhuǎn)化為float32的1,0
    print(sess.run(c))

    d = tf.reduce_mean(c,reduction_indices=0) #d=[1,0,1,0] 一列的均值
    #d = tf.reduce_mean(c,reduction_indices=1) #d=[0.5,0.5,0.5] 一行的均值
    #d = tf.reduce_mean(c) #d=0.5
    print(sess.run(d))

    e = tf.equal(t,t1)  #比較相同位置的數(shù)值是否相等都伪,返回BOOL(即True,False)
    print(sess.run(e))
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末呕乎,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子陨晶,更是在濱河造成了極大的恐慌猬仁,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,546評論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件先誉,死亡現(xiàn)場離奇詭異湿刽,居然都是意外死亡,警方通過查閱死者的電腦和手機褐耳,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,224評論 3 395
  • 文/潘曉璐 我一進店門诈闺,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人漱病,你說我怎么就攤上這事买雾“崖” “怎么了杨帽?”我有些...
    開封第一講書人閱讀 164,911評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長嗤军。 經(jīng)常有香客問我注盈,道長,這世上最難降的妖魔是什么叙赚? 我笑而不...
    開封第一講書人閱讀 58,737評論 1 294
  • 正文 為了忘掉前任老客,我火速辦了婚禮,結(jié)果婚禮上震叮,老公的妹妹穿的比我還像新娘胧砰。我一直安慰自己,他們只是感情好苇瓣,可當我...
    茶點故事閱讀 67,753評論 6 392
  • 文/花漫 我一把揭開白布尉间。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪哲嘲。 梳的紋絲不亂的頭發(fā)上贪薪,一...
    開封第一講書人閱讀 51,598評論 1 305
  • 那天,我揣著相機與錄音眠副,去河邊找鬼画切。 笑死,一個胖子當著我的面吹牛囱怕,可吹牛的內(nèi)容都是我干的霍弹。 我是一名探鬼主播,決...
    沈念sama閱讀 40,338評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼娃弓,長吁一口氣:“原來是場噩夢啊……” “哼庞萍!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起忘闻,我...
    開封第一講書人閱讀 39,249評論 0 276
  • 序言:老撾萬榮一對情侶失蹤钝计,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后齐佳,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體私恬,經(jīng)...
    沈念sama閱讀 45,696評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,888評論 3 336
  • 正文 我和宋清朗相戀三年炼吴,在試婚紗的時候發(fā)現(xiàn)自己被綠了本鸣。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,013評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡硅蹦,死狀恐怖荣德,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情童芹,我是刑警寧澤涮瞻,帶...
    沈念sama閱讀 35,731評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站假褪,受9級特大地震影響署咽,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜生音,卻給世界環(huán)境...
    茶點故事閱讀 41,348評論 3 330
  • 文/蒙蒙 一宁否、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧缀遍,春花似錦慕匠、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,929評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽冤寿。三九已至,卻和暖如春青伤,著一層夾襖步出監(jiān)牢的瞬間督怜,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,048評論 1 270
  • 我被黑心中介騙來泰國打工狠角, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留号杠,地道東北人。 一個月前我還...
    沈念sama閱讀 48,203評論 3 370
  • 正文 我出身青樓丰歌,卻偏偏與公主長得像姨蟋,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子立帖,可洞房花燭夜當晚...
    茶點故事閱讀 44,960評論 2 355

推薦閱讀更多精彩內(nèi)容