Pytorch 中 Bi-GRU / Bi-LSTM 的輸出問題

??在 PyTorch 中黎做,GRU / LSTM 模塊的調(diào)用十分方便别厘,以 GRU 為例种蘸,如下:

import torch
from torch.nn import LSTM, GRU
from torch.autograd import Variable
import numpy as np

# [batch_size, seq_len, input_feature_size]
random_input = Variable(torch.FloatTensor(1, 5, 1).normal_(), requires_grad=False)
gru = GRU( 
  input_size=1, hidden_size=1, num_layers=1, 
  batch_first=True, bidirectional=False
)
# output: [batch_size, seq_len, num_direction * hidden_size]
# hidden: [num_layers * num_directions, batch, hidden_size]
output, hidden = gru(random_input)

??其中鞠值,output[:, -1, :] 即為 hidden媚创。LSTM 只是比 GRU 多了一個返回值 cell_state,其余不變彤恶。
??當(dāng)我們將 bidirectional 參數(shù)設(shè)置為 True 的時候钞钙,GRU/LSTM 會自動地將兩個方向的狀態(tài)拼接起來。遇到一些序列分類問題声离,我們常常會將 Bi-GRU/LSTM 的最后一個隱狀態(tài)輸出到分類層中芒炼,也即使用 output[:, -1, :],那么這樣做是否正確呢术徊?
??考慮這樣一個問題:當(dāng)模型正向遍歷序列1, 2, 3, 4, 5 的時候本刽,output[:, -1, :] 是依次計算節(jié)點 1~5 之后的隱狀態(tài);當(dāng)模型反向遍歷序列1, 2, 3, 4, 5 的時候赠涮,t = 5 位置對應(yīng)的隱狀態(tài)僅僅是計算了節(jié)點 5 之后的隱狀態(tài)子寓。output[:, -1, :] 就是拼接了上述兩個向量的特征,但我們想要放入分類層的逆序特征應(yīng)該是 t=1 位置對應(yīng)的隱狀態(tài)笋除,也即依次遍歷 5~1 節(jié)點斜友、編碼整個序列信息的特征。
??下面通過具體的代碼佐證上述結(jié)論垃它,樣例主要參考 Understanding Bidirectional RNN in PyTorch

1) 數(shù)據(jù) & 模型準(zhǔn)備

# import 如上
random_input = Variable(torch.FloatTensor(1, 5, 1).normal_(), requires_grad=False)
# random_input[0, :, 0]
# tensor([ 0.0929,  0.6335,  0.6090, -0.0992,  0.7811])

# 分別建立一個 雙向 和 單向 GRU
bi_gru = GRU(input_size=1, hidden_size=1, num_layers=1, batch_first=True, bidirectional=True)
reverse_gru = GRU(input_size=1, hidden_size=1, num_layers=1, batch_first=True, bidirectional=False)

# 使 reverse_gru 的參數(shù)與 bi_gru 中逆序計算的部分保持一致
# 這樣 reverse_gru 就可以等價于 bi_gru 的逆序部分
reverse_gru.weight_ih_l0 = bi_gru.weight_ih_l0_reverse
reverse_gru.weight_hh_l0 = bi_gru.weight_hh_l0_reverse
reverse_gru.bias_ih_l0 = bi_gru.bias_ih_l0_reverse
reverse_gru.bias_hh_l0 = bi_gru.bias_hh_l0_reverse

# random_input 正序輸入 bi_gru鲜屏,逆序輸入 reverse_gru
bi_output, bi_hidden = bi_gru(random_input)
reverse_output, reverse_hidden = reverse_gru(random_input[:, np.arange(4, -1, -1), :])

2)結(jié)果對比

bi_output
'''
# shape = [1, 5, 2]
tensor([[[0.0867, 0.7053],
         [0.2305, 0.6983],
         [0.3245, 0.5996],
         [0.2290, 0.4437],
         [0.3471, 0.3395]]], grad_fn=<TransposeBackward1>)
'''

reverse_output
# shape = [1, 5, 1]
'''
tensor([[[0.3395],
         [0.4437],
         [0.5996],
         [0.6983],
         [0.7053]]], grad_fn=<TransposeBackward1>)
'''

??捋一捋,先只看 reverse_gru国拇,這是個單向gru洛史,我們輸入了一個序列,那么編碼了真格序列信息的隱狀態(tài)自然是最后一個隱狀態(tài)酱吝,也即 0.7053 是序列 [0.7811, -0.0992, 0.609, 0.6335, 0.0929] 的最后一個隱狀態(tài)(序列向量)也殖;bi_output 的第二列代表著逆向編碼的結(jié)果,剛好是 reverse_output 的倒序务热,如果我們直接把 bi_output[:, -1, :] 作為序列向量毕源,顯然是不符合期望的。正確的做法是:

Method 1:
seq_vec = torch.cat(bi_output[:, -1, 0], bi_output[:, 0, 1])
'''
tensor([0.3471, 0.7053], grad_fn=<CatBackward>)
'''

Method 2:
seq_vec = bi_hidden.reshape([bi_hidden.shape[0], -1])
'''
tensor([[0.3471],
        [0.7053]], grad_fn=<ViewBackward>)
'''

??也即 hidden 這個變量是返回了 序列編碼 的信息陕习,滿足了我們的要求,可以放心用址愿,也推薦使用第二種方法该镣,少做不必要折騰。

bi_hidden
'''
tensor([[[0.3471]],
        [[0.7053]]], grad_fn=<StackBackward>)
'''

reverse_hidden
'''
tensor([[[0.7053]]], grad_fn=<StackBackward>)
'''
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末响谓,一起剝皮案震驚了整個濱河市损合,隨后出現(xiàn)的幾起案子省艳,更是在濱河造成了極大的恐慌,老刑警劉巖嫁审,帶你破解...
    沈念sama閱讀 219,039評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件跋炕,死亡現(xiàn)場離奇詭異,居然都是意外死亡律适,警方通過查閱死者的電腦和手機(jī)辐烂,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,426評論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來捂贿,“玉大人纠修,你說我怎么就攤上這事〕” “怎么了扣草?”我有些...
    開封第一講書人閱讀 165,417評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長颜屠。 經(jīng)常有香客問我辰妙,道長,這世上最難降的妖魔是什么甫窟? 我笑而不...
    開封第一講書人閱讀 58,868評論 1 295
  • 正文 為了忘掉前任密浑,我火速辦了婚禮,結(jié)果婚禮上蕴坪,老公的妹妹穿的比我還像新娘肴掷。我一直安慰自己,他們只是感情好背传,可當(dāng)我...
    茶點故事閱讀 67,892評論 6 392
  • 文/花漫 我一把揭開白布呆瞻。 她就那樣靜靜地躺著,像睡著了一般径玖。 火紅的嫁衣襯著肌膚如雪痴脾。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,692評論 1 305
  • 那天梳星,我揣著相機(jī)與錄音赞赖,去河邊找鬼。 笑死冤灾,一個胖子當(dāng)著我的面吹牛前域,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播韵吨,決...
    沈念sama閱讀 40,416評論 3 419
  • 文/蒼蘭香墨 我猛地睜開眼匿垄,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起椿疗,我...
    開封第一講書人閱讀 39,326評論 0 276
  • 序言:老撾萬榮一對情侶失蹤漏峰,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后届榄,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體浅乔,經(jīng)...
    沈念sama閱讀 45,782評論 1 316
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,957評論 3 337
  • 正文 我和宋清朗相戀三年铝条,在試婚紗的時候發(fā)現(xiàn)自己被綠了靖苇。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,102評論 1 350
  • 序言:一個原本活蹦亂跳的男人離奇死亡攻晒,死狀恐怖顾复,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情鲁捏,我是刑警寧澤芯砸,帶...
    沈念sama閱讀 35,790評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站给梅,受9級特大地震影響假丧,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜动羽,卻給世界環(huán)境...
    茶點故事閱讀 41,442評論 3 331
  • 文/蒙蒙 一包帚、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧运吓,春花似錦渴邦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,996評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至倦青,卻和暖如春瓮床,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背产镐。 一陣腳步聲響...
    開封第一講書人閱讀 33,113評論 1 272
  • 我被黑心中介騙來泰國打工隘庄, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人癣亚。 一個月前我還...
    沈念sama閱讀 48,332評論 3 373
  • 正文 我出身青樓丑掺,卻偏偏與公主長得像,于是被迫代替她去往敵國和親述雾。 傳聞我的和親對象是個殘疾皇子吼鱼,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,044評論 2 355

推薦閱讀更多精彩內(nèi)容