pytorch RNN的一點理解

本文主要介紹一下RNN的計算規(guī)則以及pytorch里面RNN怎么計算的,給自己備注一下诡曙。RNN是一種循環(huán)神經(jīng)網(wǎng)絡(luò),聽起來比較復(fù)雜略水,就知道循環(huán)价卤,其他的沒了,其實它的里面就是一個數(shù)學(xué)公式而已渊涝,然后是反復(fù)的運行就沒了慎璧。不信的話,下面用代碼來試一下跨释。

pytorch RNN說明

關(guān)于pytorch RNN API的解釋官網(wǎng)有詳細介紹胸私,列一下里面內(nèi)部的公式。
h_t =tanh(w_{ih}x_t+b_{ih}+w_{hh}h_{(t?1)}+b_{hh})
這里的h_t是在t時刻的隱藏層狀態(tài)鳖谈,x_t是在t時刻的輸入岁疼,h_{t-1}是上一時刻的隱藏層狀態(tài)或者是在時刻0的初始化隱藏層狀態(tài),tanh是激活函數(shù)缆娃,可以通過參數(shù)修改成relu

參數(shù)
input_size 輸入x的特征大小
hidden_size 隱藏層h的特征大小
num_layers 神經(jīng)元的個數(shù)捷绒,如果設(shè)置為2,第二個神經(jīng)元的輸入是前一個神經(jīng)元的輸出
nonlinearity 激活函數(shù) 默認為tanh贯要,可以設(shè)置為relu
bias 是否設(shè)置偏置暖侨,默認為True
batch_first 默認為false, 設(shè)置為True之后,輸入輸出為(batch, seq, feature)
dropout 默認為0
bidirectional 默認為False崇渗,設(shè)置為RNN為雙向
返回
input(seq_len, batch, input_size) 如果batch_first輸入為input(batch, seq_len, input_size)
h_0(num_layers*num_directions, batch, hidden_size)如果bidirectional為True,num_directions為2

代碼

為了簡單起見字逗,示例代碼輸入為batch_size=1京郑,維度為10

num_layers=1, seq_len=2

from torch import nn
import torch
import numpy as np

# input_size, hidden_size, num_layers
rnn = nn.RNN(10, 10, 1)

inputR = torch.randn(2, 1, 10)

h0 = torch.randn(1, 1, 10)

output, hn = rnn(inputR, h0)

輸出

output:
tensor([[[-0.4582,  0.3975,  0.7992,  0.2567,  0.5510,  0.4386, -0.6069,
          -0.2433, -0.0597,  0.2545]],

        [[ 0.2327,  0.2221, -0.1225,  0.1365,  0.1384,  0.7557,  0.9028,
          -0.4454,  0.1529,  0.0789]]], grad_fn=<StackBackward>)

hn:
tensor([[[ 0.2327,  0.2221, -0.1225,  0.1365,  0.1384,  0.7557,  0.9028,
          -0.4454,  0.1529,  0.0789]]], grad_fn=<StackBackward>)

公式運行, 第一個seq

ih =  rnn.weight_ih_l0.data.mm(inputR[0].squeeze().view(10,1)) + rnn.bias_ih_l0.data.view(10,1)

hh = rnn.weight_hh_l0.data.mm(h0[0].squeeze().view(10, 1)) + rnn.bias_hh_l0.data.view(10,1)

temp = torch.tanh(ih+hh)
temp

輸出

tensor([[-0.4582],
        [ 0.3975],
        [ 0.7992],
        [ 0.2567],
        [ 0.5510],
        [ 0.4386],
        [-0.6069],
        [-0.2433],
        [-0.0597],
        [ 0.2545]])

第二個seq

ih =  rnn.weight_ih_l0.data.mm(inputR[1].squeeze().view(10,1)) + rnn.bias_ih_l0.data.view(10,1)

hh = rnn.weight_hh_l0.data.mm(temp) + rnn.bias_hh_l0.data.view(10,1)

temp = torch.tanh(ih+hh)
temp

輸出

tensor([[ 0.2327],
        [ 0.2221],
        [-0.1225],
        [ 0.1365],
        [ 0.1384],
        [ 0.7557],
        [ 0.9028],
        [-0.4454],
        [ 0.1529],
        [ 0.0789]])

完全一樣

num_layers=2, seq_len=1

from torch import nn
import torch
import numpy as np

# input_size, hidden_size, num_layers
rnn = nn.RNN(10, 10, 2)

inputR = torch.randn(1, 1, 10)

h0 = torch.randn(2, 1, 10)

output, hn = rnn(inputR, h0)

輸出

output:
tensor([[[-0.6109,  0.1926,  0.7245, -0.4304, -0.2992,  0.0129, -0.1721,
           0.6340, -0.3601, -0.3554]]], grad_fn=<StackBackward>)

hn:
tensor([[[ 0.0410,  0.2077, -0.6816,  0.0125,  0.3604, -0.4399,  0.7102,
          -0.0217,  0.8443, -0.1684]],

        [[-0.6109,  0.1926,  0.7245, -0.4304, -0.2992,  0.0129, -0.1721,
           0.6340, -0.3601, -0.3554]]], grad_fn=<StackBackward>)

接下來使用公式運行一遍,和上面的結(jié)果一樣葫掉,更好理解RNN

ih =  rnn.weight_ih_l0.data.mm(inputR[0].squeeze().view(10,1)) + rnn.bias_ih_l0.data.view(10,1)

hh = rnn.weight_hh_l0.data.mm(h0[0].squeeze().view(10, 1)) + rnn.bias_hh_l0.data.view(10,1)

temp = torch.tanh(ih+hh)

輸出

temp:
tensor([[ 0.0410],
        [ 0.2077],
        [-0.6816],
        [ 0.0125],
        [ 0.3604],
        [-0.4399],
        [ 0.7102],
        [-0.0217],
        [ 0.8443],
        [-0.1684]])

可以看到和hn的一部分數(shù)據(jù)完全一樣些举,因為設(shè)置num_layers為2,這個時候才經(jīng)過第一個RNN神經(jīng)元挖息,接下來經(jīng)過第二個神經(jīng)元

ih1 =  rnn.weight_ih_l1.data.mm(temp.data) + rnn.bias_ih_l1.data.view(10,1)

hh1 = rnn.weight_hh_l1.data.mm(h0[1].squeeze().view(10, 1)) + rnn.bias_hh_l1.data.view(10,1)

torch.tanh(ih1+hh1)

輸出

tensor([[-0.6109],
        [ 0.1926],
        [ 0.7245],
        [-0.4304],
        [-0.2992],
        [ 0.0129],
        [-0.1721],
        [ 0.6340],
        [-0.3601],
        [-0.3554]])

可以看到和output輸出一樣金拒,和hn的第二部分數(shù)據(jù)完全一樣兽肤。

總結(jié)

通過上面的代碼運行一遍套腹,應(yīng)該就能看出來RNN內(nèi)部如何運行的了

好的文檔關(guān)于RNN的
The Unreasonable Effectiveness of Recurrent Neural Networks
Understanding LSTM Networks
Attention and Augmented Recurrent Neural Networks

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市资铡,隨后出現(xiàn)的幾起案子电禀,更是在濱河造成了極大的恐慌,老刑警劉巖笤休,帶你破解...
    沈念sama閱讀 216,496評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件尖飞,死亡現(xiàn)場離奇詭異,居然都是意外死亡店雅,警方通過查閱死者的電腦和手機政基,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,407評論 3 392
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來闹啦,“玉大人沮明,你說我怎么就攤上這事∏戏埽” “怎么了荐健?”我有些...
    開封第一講書人閱讀 162,632評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長琳袄。 經(jīng)常有香客問我江场,道長,這世上最難降的妖魔是什么窖逗? 我笑而不...
    開封第一講書人閱讀 58,180評論 1 292
  • 正文 為了忘掉前任址否,我火速辦了婚禮,結(jié)果婚禮上碎紊,老公的妹妹穿的比我還像新娘佑附。我一直安慰自己,他們只是感情好矮慕,可當(dāng)我...
    茶點故事閱讀 67,198評論 6 388
  • 文/花漫 我一把揭開白布帮匾。 她就那樣靜靜地躺著,像睡著了一般痴鳄。 火紅的嫁衣襯著肌膚如雪瘟斜。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,165評論 1 299
  • 那天,我揣著相機與錄音螺句,去河邊找鬼虽惭。 笑死,一個胖子當(dāng)著我的面吹牛蛇尚,可吹牛的內(nèi)容都是我干的芽唇。 我是一名探鬼主播,決...
    沈念sama閱讀 40,052評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼取劫,長吁一口氣:“原來是場噩夢啊……” “哼匆笤!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起谱邪,我...
    開封第一講書人閱讀 38,910評論 0 274
  • 序言:老撾萬榮一對情侶失蹤炮捧,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后惦银,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體咆课,經(jīng)...
    沈念sama閱讀 45,324評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,542評論 2 332
  • 正文 我和宋清朗相戀三年扯俱,在試婚紗的時候發(fā)現(xiàn)自己被綠了书蚪。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,711評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡迅栅,死狀恐怖殊校,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情库继,我是刑警寧澤箩艺,帶...
    沈念sama閱讀 35,424評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站宪萄,受9級特大地震影響艺谆,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜拜英,卻給世界環(huán)境...
    茶點故事閱讀 41,017評論 3 326
  • 文/蒙蒙 一静汤、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧居凶,春花似錦虫给、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,668評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至弄兜,卻和暖如春药蜻,著一層夾襖步出監(jiān)牢的瞬間瓷式,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,823評論 1 269
  • 我被黑心中介騙來泰國打工语泽, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留贸典,地道東北人。 一個月前我還...
    沈念sama閱讀 47,722評論 2 368
  • 正文 我出身青樓踱卵,卻偏偏與公主長得像廊驼,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子惋砂,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,611評論 2 353