tensorflow 學(xué)習(xí)

基本概念

  1. 使用圖(graph)來表示計(jì)算任務(wù)
  2. 在會話(session)中執(zhí)行圖
  3. 使用(tensor)來表示數(shù)據(jù)結(jié)構(gòu)
  4. 使用(variable)來維護(hù)狀態(tài)
  5. 使用feed與fetch為任意的操作賦值或者獲取數(shù)據(jù)

就是說,任何的運(yùn)算要用圖來進(jìn)行計(jì)算,圖要放在一個(gè)更大的環(huán)境中執(zhí)行艰争,也就是session上陕。在tensorflow中,基本的數(shù)據(jù)結(jié)構(gòu)是tensor阶捆,獲取數(shù)據(jù)與添加數(shù)據(jù)使用feed和fetch凌节。

構(gòu)建一個(gè)tensorflow模型的基本步驟

一般流程是先創(chuàng)建一個(gè)圖(graph),然后在會話中啟動它(session)洒试。

更加方便的一種是Interactivesession類倍奢,使用他,可以更加方便的 構(gòu)建你的代碼垒棋,他能在讓你運(yùn)行圖的時(shí)候插入一些圖娱挨。

如果沒有interactivesession類,你需要在啟動session之前構(gòu)建整個(gè)計(jì)算圖捕犬,然后啟動這個(gè)計(jì)算圖跷坝。

import input_data
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)

import tensorflow as tf
sess = tf.InteractiveSession()

構(gòu)建softmax回歸模型

占位符

通過為輸入與輸出設(shè)置節(jié)點(diǎn),開始構(gòu)建圖:

x = tf.placeholder("float", shape=[None, 784])
y_ = tf.placeholder("float", shape=[None, 10])

這里的x碉碉,y都不是特定的值柴钻,而是一個(gè)占位符,在tensorflow運(yùn)行對的時(shí)時(shí)候根據(jù)這個(gè)占位符輸入具體的值垢粮。
輸入圖片x表示 表示一個(gè)二位的浮點(diǎn)數(shù)張量贴届,這里分配給他的shape=[None,784],784表示一張展平的圖片維度蜡吧,None表示其值的大小不一定毫蚓。雖然palceholder的shape是可選的,但是有了它昔善,tensorflow可以捕捉應(yīng)為數(shù)據(jù)維度不一樣而導(dǎo)致的錯(cuò)誤元潘。

變量

在機(jī)器學(xué)習(xí)的過程中,參數(shù)一般使用變量來表示君仆。

W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))

我們在調(diào)用tf.variable的時(shí)候傳入?yún)?shù)翩概,在這個(gè)例子里面牲距,把
w和b都賦值為0,其中w是一個(gè)784乘以10的矩陣钥庇,b是一個(gè)一維向量牍鞠。
變量需要通過session初始化后,才能夠在session中使用

sess.run(tf.initialize_all_variables())

類別預(yù)測與損失函數(shù)

把向量化后的圖片x和權(quán)重矩陣w相乘评姨,加上偏置b难述,然后分別計(jì)算每個(gè)分類的softmax的概率值。

y = tf.nn.softmax(tf.matmul(x,W) + b)

損失函數(shù)就是目標(biāo)類別與預(yù)測類別之間的交叉熵吐句。

cross_entropy = -tf.reduce_sum(y_*tf.log(y))

tf.reduce_sum把minibatch里的每張圖片的交叉熵值都加起來了龄广。我們計(jì)算的交叉熵是指整個(gè)minibatch的。

訓(xùn)練模型

我們已經(jīng)定義好模型與損失函數(shù)蕴侧,用tensorflow進(jìn)行訓(xùn)練就很簡單了:

train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

這一行代碼實(shí)際上是用來往計(jì)算圖上添加一個(gè)新操作择同,其中包括計(jì)算梯度,計(jì)算每個(gè)參數(shù)的步長變化净宵,并且計(jì)算出新的參數(shù)值敲才。
返回的train_step操作對象,在運(yùn)行時(shí)會使用梯度下降來更新參數(shù)择葡。因此紧武,整個(gè)模型的訓(xùn)練可以通過反復(fù)地運(yùn)行train_step來完成。

for i in range(1000):
  batch = mnist.train.next_batch(50)
  train_step.run(feed_dict={x: batch[0], y_: batch[1]})

評估模型

那么我們的模型性能如何呢敏储?
首先讓我們找出那些預(yù)測正確的標(biāo)簽阻星。tf.argmax 是一個(gè)非常有用的函數(shù),它能給出某個(gè)tensor對象在某一維上的其數(shù)據(jù)最大值所在的索引值已添。由于標(biāo)簽向量是由0,1組成妥箕,因此最大值1所在的索引位置就是類別標(biāo)簽,比如tf.argmax(y,1)返回的是模型對于任一輸入x預(yù)測到的標(biāo)簽值更舞,而 tf.argmax(y_,1) 代表正確的標(biāo)簽畦幢,我們可以用 tf.equal 來檢測我們的預(yù)測是否真實(shí)標(biāo)簽匹配(索引位置一樣表示匹配)。

correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))

這里返回一個(gè)布爾數(shù)組缆蝉。為了計(jì)算我們分類的準(zhǔn)確率宇葱,我們將布爾值轉(zhuǎn)換為浮點(diǎn)數(shù)來代表對、錯(cuò)刊头,然后取平均值黍瞧。例如:[True, False, True, True]變?yōu)閇1,0,1,1],計(jì)算出平均值為0.75原杂。

accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))

最后印颤,我們可以計(jì)算出在測試數(shù)據(jù)上的準(zhǔn)確率,大概是91%污尉。

print accuracy.eval(feed_dict={x: mnist.test.images, y_: mnist.test.labels})
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末膀哲,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子被碗,更是在濱河造成了極大的恐慌某宪,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,948評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件锐朴,死亡現(xiàn)場離奇詭異兴喂,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)焚志,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,371評論 3 385
  • 文/潘曉璐 我一進(jìn)店門衣迷,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人酱酬,你說我怎么就攤上這事壶谒。” “怎么了膳沽?”我有些...
    開封第一講書人閱讀 157,490評論 0 348
  • 文/不壞的土叔 我叫張陵汗菜,是天一觀的道長。 經(jīng)常有香客問我挑社,道長陨界,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,521評論 1 284
  • 正文 為了忘掉前任痛阻,我火速辦了婚禮菌瘪,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘阱当。我一直安慰自己俏扩,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,627評論 6 386
  • 文/花漫 我一把揭開白布弊添。 她就那樣靜靜地躺著动猬,像睡著了一般。 火紅的嫁衣襯著肌膚如雪表箭。 梳的紋絲不亂的頭發(fā)上赁咙,一...
    開封第一講書人閱讀 49,842評論 1 290
  • 那天,我揣著相機(jī)與錄音免钻,去河邊找鬼彼水。 笑死,一個(gè)胖子當(dāng)著我的面吹牛极舔,可吹牛的內(nèi)容都是我干的凤覆。 我是一名探鬼主播,決...
    沈念sama閱讀 38,997評論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼拆魏,長吁一口氣:“原來是場噩夢啊……” “哼盯桦!你這毒婦竟也來了慈俯?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,741評論 0 268
  • 序言:老撾萬榮一對情侶失蹤拥峦,失蹤者是張志新(化名)和其女友劉穎贴膘,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體略号,經(jīng)...
    沈念sama閱讀 44,203評論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡刑峡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,534評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了玄柠。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片突梦。...
    茶點(diǎn)故事閱讀 38,673評論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖羽利,靈堂內(nèi)的尸體忽然破棺而出宫患,到底是詐尸還是另有隱情,我是刑警寧澤这弧,帶...
    沈念sama閱讀 34,339評論 4 330
  • 正文 年R本政府宣布撮奏,位于F島的核電站,受9級特大地震影響当宴,放射性物質(zhì)發(fā)生泄漏畜吊。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,955評論 3 313
  • 文/蒙蒙 一户矢、第九天 我趴在偏房一處隱蔽的房頂上張望玲献。 院中可真熱鬧,春花似錦梯浪、人聲如沸捌年。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,770評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽礼预。三九已至,卻和暖如春虏劲,著一層夾襖步出監(jiān)牢的瞬間托酸,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,000評論 1 266
  • 我被黑心中介騙來泰國打工柒巫, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留励堡,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,394評論 2 360
  • 正文 我出身青樓堡掏,卻偏偏與公主長得像应结,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,562評論 2 349

推薦閱讀更多精彩內(nèi)容