2018-03-27 第一周

本周,我們完成整體的環(huán)境搭建:python3.6巫击, Tensorflow1.7.0。

學(xué)習(xí)柄粹,實(shí)踐各自負(fù)責(zé)的算法部分喘鸟,如RNN算法,我使用google提供的手寫(xiě)體識(shí)別的MINST數(shù)據(jù)驻右, 來(lái)進(jìn)行熟悉tensorflow框架什黑,以及l(fā)stm算法的具體操作,如下是我的Demo部分代碼:

# -*- coding: utf-8 -*-

import tensorflowas tf

from tensorflow.examples.tutorials.mnistimport input_data

tf.set_random_seed(1)# set random seed

# 導(dǎo)入數(shù)據(jù)

mnist = input_data.read_data_sets('MNIST_data',one_hot=True)

# hyperparameters

lr =0.001? ? ? ? ? ? ? ? ? # learning rate

training_iters =100000? ? # train step 上限

batch_size =128

n_inputs =28? ? ? ? ? ? ? # MNIST data input (img shape: 28*28)

n_steps =28? ? ? ? ? ? ? ? # time steps

n_hidden_units =1024? ? ? # neurons in hidden layer

n_classes =10? ? ? ? ? ? ? # MNIST classes (0-9 digits# )

# x y placeholder

x = tf.placeholder(tf.float32, [None, n_steps, n_inputs])

y = tf.placeholder(tf.float32, [None, n_classes])

# 對(duì) weights biases 初始值的定義

weights = {

# shape (28, 128)

? ? 'in': tf.Variable(tf.random_normal([n_inputs, n_hidden_units])),

# shape (128, 10)

? ? 'out': tf.Variable(tf.random_normal([n_hidden_units, n_classes]))

}

biases = {

# shape (128, )

? ? 'in': tf.Variable(tf.constant(0.1,shape=[n_hidden_units, ])),

# shape (10, )

? ? 'out': tf.Variable(tf.constant(0.1,shape=[n_classes, ]))

}

def RNN(X, weights, biases):

# 原始的 X 是 3 維數(shù)據(jù), 我們需要把它變成 2 維數(shù)據(jù)才能使用 weights 的矩陣乘法

# X ==> (128 batches * 28 steps, 28 inputs)

? ? X = tf.reshape(X, [-1, n_inputs])

# X_in = W*X + b

? ? X_in = tf.matmul(X, weights['in']) + biases['in']

# X_in ==> (128 batches, 28 steps, 128 hidden) 換回3維

? ? X_in = tf.reshape(X_in, [-1, n_steps, n_hidden_units])

# 使用 basic LSTM Cell.

? ? lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden_units,forget_bias=1.0,state_is_tuple=True)

init_state = lstm_cell.zero_state(batch_size,dtype=tf.float32)# 初始化全零 state

? ? outputs, final_state = tf.nn.dynamic_rnn(lstm_cell, X_in,initial_state=init_state,time_major=False)

results = tf.matmul(final_state[1], weights['out']) + biases['out']

return results

pred = RNN(x, weights, biases)

cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels = y,logits=pred))

train_op = tf.train.AdamOptimizer(lr).minimize(cost)

correct_pred = tf.equal(tf.argmax(pred,1), tf.argmax(y,1))

accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

# init= tf.initialize_all_variables() # tf 馬上就要廢棄這種寫(xiě)法

# 替換成下面的寫(xiě)法:

init = tf.global_variables_initializer()

with tf.Session()as sess:

sess.run(init)

step =0

?while step * batch_size < training_iters:

batch_xs, batch_ys = mnist.train.next_batch(batch_size)

batch_xs = batch_xs.reshape([batch_size, n_steps, n_inputs])

sess.run([train_op],feed_dict={

x: batch_xs,

y: batch_ys,

})

if step %20 ==0:

print(sess.run(accuracy,feed_dict={

x: batch_xs,

y: batch_ys,

}))

step +=1

整個(gè)Demo數(shù)據(jù)量不大堪夭,僅用來(lái)熟悉tensorflow的框架愕把,總體來(lái)說(shuō)長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(更善于自然語(yǔ)言處理)對(duì)圖形識(shí)別不如CNN的效果拣凹,但是還是可以達(dá)到98%的正確率。


最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末恨豁,一起剝皮案震驚了整個(gè)濱河市嚣镜,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌橘蜜,老刑警劉巖菊匿,帶你破解...
    沈念sama閱讀 211,265評(píng)論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異计福,居然都是意外死亡跌捆,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,078評(píng)論 2 385
  • 文/潘曉璐 我一進(jìn)店門(mén)象颖,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)佩厚,“玉大人,你說(shuō)我怎么就攤上這事说订〕撸” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 156,852評(píng)論 0 347
  • 文/不壞的土叔 我叫張陵陶冷,是天一觀的道長(zhǎng)钙姊。 經(jīng)常有香客問(wèn)我,道長(zhǎng)埃叭,這世上最難降的妖魔是什么摸恍? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 56,408評(píng)論 1 283
  • 正文 為了忘掉前任,我火速辦了婚禮赤屋,結(jié)果婚禮上立镶,老公的妹妹穿的比我還像新娘。我一直安慰自己类早,他們只是感情好媚媒,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,445評(píng)論 5 384
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著涩僻,像睡著了一般缭召。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上逆日,一...
    開(kāi)封第一講書(shū)人閱讀 49,772評(píng)論 1 290
  • 那天嵌巷,我揣著相機(jī)與錄音,去河邊找鬼室抽。 笑死搪哪,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的坪圾。 我是一名探鬼主播晓折,決...
    沈念sama閱讀 38,921評(píng)論 3 406
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼惑朦,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了漓概?” 一聲冷哼從身側(cè)響起漾月,我...
    開(kāi)封第一講書(shū)人閱讀 37,688評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎胃珍,沒(méi)想到半個(gè)月后梁肿,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,130評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡堂鲜,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,467評(píng)論 2 325
  • 正文 我和宋清朗相戀三年栈雳,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片缔莲。...
    茶點(diǎn)故事閱讀 38,617評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖霉旗,靈堂內(nèi)的尸體忽然破棺而出痴奏,到底是詐尸還是另有隱情,我是刑警寧澤厌秒,帶...
    沈念sama閱讀 34,276評(píng)論 4 329
  • 正文 年R本政府宣布读拆,位于F島的核電站,受9級(jí)特大地震影響鸵闪,放射性物質(zhì)發(fā)生泄漏檐晕。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,882評(píng)論 3 312
  • 文/蒙蒙 一蚌讼、第九天 我趴在偏房一處隱蔽的房頂上張望辟灰。 院中可真熱鬧,春花似錦篡石、人聲如沸芥喇。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,740評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至,卻和暖如春耍攘,著一層夾襖步出監(jiān)牢的瞬間奉呛,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,967評(píng)論 1 265
  • 我被黑心中介騙來(lái)泰國(guó)打工珊搀, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留冶忱,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,315評(píng)論 2 360
  • 正文 我出身青樓食棕,卻偏偏與公主長(zhǎng)得像朗和,于是被迫代替她去往敵國(guó)和親错沽。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,486評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容