深度學(xué)習(xí)算法(第19期)----RNN如何訓(xùn)練并預(yù)測時(shí)序信號徽鼎?

上期我們一起用RNN做了一個(gè)簡單的手寫字分類器,

深度學(xué)習(xí)算法(第18期)----用RNN也能玩分類


今天我們一起學(xué)習(xí)下RNN是如何訓(xùn)練并預(yù)測時(shí)序信號的酷麦,比如股票價(jià)格矿卑,溫度,腦電波等沃饶。
每一個(gè)訓(xùn)練樣本是從時(shí)序信號中隨機(jī)選擇20個(gè)連續(xù)的值母廷,訓(xùn)練樣本相對應(yīng)的目標(biāo)是一個(gè)往下一個(gè)時(shí)間的方向平移了一個(gè)step之后的20個(gè)連續(xù)值轻黑,也就是除了最后一個(gè)值不一樣,前面的值和訓(xùn)練樣本的后19個(gè)都一樣的一個(gè)序列琴昆。如下圖:
首先氓鄙,我們創(chuàng)建一個(gè)RNN網(wǎng)絡(luò),它包括 100個(gè)循環(huán)神經(jīng)元椎咧,由于訓(xùn)練樣本的長度為20玖详,所以我們將其展開為20個(gè)時(shí)間片段。每一個(gè)輸入包含一個(gè)特征值(那一時(shí)刻的值)勤讽。同樣蟋座,目標(biāo)也包含20個(gè)輸入,代碼如下脚牍,和之前的差不多:

n_steps = 20
n_inputs = 1
n_neurons = 100
n_outputs = 1
X = tf.placeholder(tf.float32, [None, n_steps, n_inputs])
y = tf.placeholder(tf.float32, [None, n_steps, n_outputs])
cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons, activation=tf.nn.relu)
outputs, states = tf.nn.dynamic_rnn(cell, X, dtype=tf.float32)

在每一個(gè)時(shí)刻向臀,我們都有一個(gè)size為100的輸出向量,但是實(shí)際上诸狭,我們需要的是一個(gè)輸出值券膀。最簡單的方法就是用一個(gè)包裝器(Out putProjectionWrapper)把一個(gè)循環(huán)神經(jīng)元包裝起來。包裝器工作起來類似一個(gè)循環(huán)神經(jīng)元驯遇,但是疊加了其他功能芹彬。比如它在循環(huán)神經(jīng)元的輸出地方,增加了一個(gè)線性神經(jīng)元的全連接層(這并不影響循環(huán)神經(jīng)元的狀態(tài))叉庐。所有全連接層神經(jīng)元共享同樣的權(quán)重和偏置舒帮。如下圖:

包裝一個(gè)循環(huán)神經(jīng)元相當(dāng)簡單,只需要微調(diào)一下之前的代碼就可以將一個(gè)BasicRNNCell轉(zhuǎn)換成OutputProjectionWrapper陡叠,如下:

cell = tf.contrib.rnn.OutputProjectionWrapper(
tf.contrib.rnn.BasicRNNCell(num_units=n_neurons, activation=tf.nn.relu),
output_size=n_outputs)

到目前為止玩郊,我們可以來定義損失函數(shù)了,跟之前我們做回歸一樣枉阵,這里用均方差(MSE)译红。接下來再創(chuàng)建一個(gè)優(yōu)化器,這里選擇Adam優(yōu)化器兴溜。如何選擇優(yōu)化器侦厚,見之前文章:

深度學(xué)習(xí)算法(第5期)----深度學(xué)習(xí)中的優(yōu)化器選擇

learning_rate = 0.001
loss = tf.reduce_mean(tf.square(outputs - y))
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)
training_op = optimizer.minimize(loss)
init = tf.global_variables_initializer()

接下來就是執(zhí)行階段:

n_iterations = 10000
batch_size = 50
with tf.Session() as sess:
init.run()
for iteration in range(n_iterations):
X_batch, y_batch = [...] # fetch the next training batch
sess.run(training_op, feed_dict={X: X_batch, y: y_batch})
if iteration % 100 == 0:
mse = loss.eval(feed_dict={X: X_batch, y: y_batch})
print(iteration, "\tMSE:", mse)

輸出結(jié)果如下:

0 MSE: 379.586
100 MSE: 14.58426
200 MSE: 7.14066
300 MSE: 3.98528
400 MSE: 2.00254
[...]

一旦模型訓(xùn)練好之后,就可以用它來去預(yù)測了:

X_new = [...] # New sequences
y_pred = sess.run(outputs, feed_dict={X: X_new})

下圖顯示了拙徽,上面的代碼訓(xùn)練1000次迭代之后刨沦,模型的預(yù)測結(jié)果:?盡管用OutputProjectionWrapper是將RNN的輸出序列降維到一個(gè)值的最簡單的方法,但它并不是效率最高的斋攀。這里有一個(gè)技巧已卷,可以更加高效:先將RNN輸出的shape從[batch_size, n_steps, n_neurons]轉(zhuǎn)換成[batch_size * n_steps, n_neurons]梧田,然后用一個(gè)有合適size的全連接層淳蔼,輸出一個(gè)[batch_size * n_steps, n_outputs]的tensor侧蘸,最后將該tensor轉(zhuǎn)為[batch_size, n_steps, n_outputs]。如下圖:?該方案實(shí)施起來鹉梨,并不難讳癌,這里不需要OutputProjectionWrapper包裝器了,只需要BasicRNNCell存皂,如下:

cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons, activation=tf.nn.relu)
rnn_outputs, states = tf.nn.dynamic_rnn(cell, X, dtype=tf.float32)

然后晌坤,我們對結(jié)果進(jìn)行reshape,全連接層旦袋,再reshape骤菠,如下:

stacked_rnn_outputs = tf.reshape(rnn_outputs, [-1, n_neurons])
stacked_outputs = fully_connected(stacked_rnn_outputs, n_outputs,
activation_fn=None)
outputs = tf.reshape(stacked_outputs, [-1, n_steps, n_outputs])

接下來的代碼和之前的一樣了,由于這次只用了一個(gè)全連接層疤孕,所以跟之前相比商乎,速度方面提升了不少。

好了祭阀,至此鹉戚,今天我們主要數(shù)據(jù)集的設(shè)置,RNN的創(chuàng)建专控,如何降維抹凳,以及損失函數(shù),優(yōu)化器伦腐,訓(xùn)練和預(yù)測模型的方面學(xué)習(xí)了RNN的使用赢底,希望有些收獲,歡迎留言或進(jìn)社區(qū)共同交流蔗牡,喜歡的話颖系,就點(diǎn)個(gè)“在看”吧,您也可以置頂公眾號辩越,第一時(shí)間接收最新內(nèi)容嘁扼。


智能算法,與您攜手黔攒,沉淀自己趁啸,引領(lǐng)AI!


?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末督惰,一起剝皮案震驚了整個(gè)濱河市不傅,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌赏胚,老刑警劉巖访娶,帶你破解...
    沈念sama閱讀 221,198評論 6 514
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異觉阅,居然都是意外死亡崖疤,警方通過查閱死者的電腦和手機(jī)秘车,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,334評論 3 398
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來劫哼,“玉大人叮趴,你說我怎么就攤上這事∪ㄉ眨” “怎么了眯亦?”我有些...
    開封第一講書人閱讀 167,643評論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長般码。 經(jīng)常有香客問我妻率,道長,這世上最難降的妖魔是什么板祝? 我笑而不...
    開封第一講書人閱讀 59,495評論 1 296
  • 正文 為了忘掉前任舌涨,我火速辦了婚禮,結(jié)果婚禮上扔字,老公的妹妹穿的比我還像新娘囊嘉。我一直安慰自己,他們只是感情好革为,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,502評論 6 397
  • 文/花漫 我一把揭開白布扭粱。 她就那樣靜靜地躺著,像睡著了一般震檩。 火紅的嫁衣襯著肌膚如雪琢蛤。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 52,156評論 1 308
  • 那天抛虏,我揣著相機(jī)與錄音博其,去河邊找鬼。 笑死迂猴,一個(gè)胖子當(dāng)著我的面吹牛慕淡,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播沸毁,決...
    沈念sama閱讀 40,743評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼峰髓,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了息尺?” 一聲冷哼從身側(cè)響起携兵,我...
    開封第一講書人閱讀 39,659評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎搂誉,沒想到半個(gè)月后徐紧,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,200評論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,282評論 3 340
  • 正文 我和宋清朗相戀三年并级,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了巴柿。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,424評論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡死遭,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出凯旋,到底是詐尸還是另有隱情呀潭,我是刑警寧澤,帶...
    沈念sama閱讀 36,107評論 5 349
  • 正文 年R本政府宣布至非,位于F島的核電站钠署,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏荒椭。R本人自食惡果不足惜谐鼎,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,789評論 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望趣惠。 院中可真熱鬧狸棍,春花似錦、人聲如沸味悄。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,264評論 0 23
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽侍瑟。三九已至唐片,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間涨颜,已是汗流浹背费韭。 一陣腳步聲響...
    開封第一講書人閱讀 33,390評論 1 271
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留庭瑰,地道東北人星持。 一個(gè)月前我還...
    沈念sama閱讀 48,798評論 3 376
  • 正文 我出身青樓,卻偏偏與公主長得像弹灭,于是被迫代替她去往敵國和親钉汗。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,435評論 2 359

推薦閱讀更多精彩內(nèi)容