詳解循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network)

今天的學(xué)習(xí)資料是這篇文章,寫的非常詳細(xì)果港,有理論有代碼印蓖,本文是補(bǔ)充一些小細(xì)節(jié),可以二者結(jié)合看效果更好:
https://zybuluo.com/hanbingtao/note/541458

在文末有關(guān)于 RNN 的文章匯總京腥,之前寫的大多是概覽式的模型結(jié)構(gòu),公式溅蛉,和一些應(yīng)用公浪,今天主要放在訓(xùn)練算法的推導(dǎo)。

本文結(jié)構(gòu):

  1. 模型
  2. 訓(xùn)練算法
  3. 基于 RNN 的語言模型例子
  4. 代碼實(shí)現(xiàn)

1. 模型

  • 和全連接網(wǎng)絡(luò)的區(qū)別
  • 更細(xì)致到向量級(jí)的連接圖
  • 為什么循環(huán)神經(jīng)網(wǎng)絡(luò)可以往前看任意多個(gè)輸入值

循環(huán)神經(jīng)網(wǎng)絡(luò)種類繁多船侧,今天只看最基本的循環(huán)神經(jīng)網(wǎng)絡(luò)欠气,這個(gè)基礎(chǔ)攻克下來,理解拓展形式也不是問題镜撩。

首先看它和全連接網(wǎng)絡(luò)的區(qū)別:

下圖是一個(gè)全連接網(wǎng)絡(luò):
它的隱藏層的值只取決于輸入的 x

而 RNN 的隱藏層的值 s 不僅僅取決于當(dāng)前這次的輸入 x预柒,還取決于上一次隱藏層的值 s:
這個(gè)過程畫成簡(jiǎn)圖是這個(gè)樣子:

其中,t 是時(shí)刻袁梗, x 是輸入層宜鸯, s 是隱藏層, o 是輸出層遮怜,矩陣 W 就是隱藏層上一次的值作為這一次的輸入的權(quán)重淋袖。

上面的簡(jiǎn)圖還不能夠說明細(xì)節(jié),來看一下更細(xì)致到向量級(jí)的連接圖:

Elman network

Elman and Jordan networks are also known as "simple recurrent networks" (SRN).

其中各變量含義:


輸出層是一個(gè)全連接層锯梁,它的每個(gè)節(jié)點(diǎn)都和隱藏層的每個(gè)節(jié)點(diǎn)相連即碗,
隱藏層是循環(huán)層。

圖來自wiki:https://en.wikipedia.org/wiki/Recurrent_neural_network#Gated_recurrent_unit

為什么循環(huán)神經(jīng)網(wǎng)絡(luò)可以往前看任意多個(gè)輸入值呢陌凳?

來看下面的公式剥懒,即 RNN 的輸出層 o 和 隱藏層 s 的計(jì)算方法:


如果反復(fù)把式 2 帶入到式 1,將得到:


這就是原因合敦。


2. 訓(xùn)練算法

RNN 的訓(xùn)練算法為:BPTT

BPTT 的基本原理和 BP 算法是一樣的初橘,同樣是三步:

    1. 前向計(jì)算每個(gè)神經(jīng)元的輸出值;
    1. 反向計(jì)算每個(gè)神經(jīng)元的誤差項(xiàng)值,它是誤差函數(shù)E對(duì)神經(jīng)元j的加權(quán)輸入的偏導(dǎo)數(shù)壁却;
    1. 計(jì)算每個(gè)權(quán)重的梯度批狱。

最后再用隨機(jī)梯度下降算法更新權(quán)重。

BP 算法的詳細(xì)推導(dǎo)可以看這篇:
手寫展东,純享版反向傳播算法公式推導(dǎo)
http://www.reibang.com/p/9e217cfd8a49

下面詳細(xì)解析各步驟:

1. 前向計(jì)算

計(jì)算隱藏層 S 以及它的矩陣形式:
注意下圖中赔硫,各變量的維度,標(biāo)在右下角了盐肃,
s 的上標(biāo)代表時(shí)刻爪膊,下標(biāo)代表這個(gè)向量的第幾個(gè)元素。

1
2. 誤差項(xiàng)的計(jì)算

BTPP 算法就是將第 l 層 t 時(shí)刻的誤差值沿兩個(gè)方向傳播:

  • 一個(gè)方向是砸王,傳遞到上一層網(wǎng)絡(luò)推盛,這部分只和權(quán)重矩陣 U 有關(guān);(就相當(dāng)于把全連接網(wǎng)絡(luò)旋轉(zhuǎn)90度來看)
  • 另一個(gè)是方向是谦铃,沿時(shí)間線傳遞到初始時(shí)刻耘成,這部分只和權(quán)重矩陣 W 有關(guān)。

如下圖所示:

所以驹闰,就是要求這兩個(gè)方向的誤差項(xiàng)的公式:

學(xué)習(xí)資料中式 3 就是將誤差項(xiàng)沿時(shí)間反向傳播的算法瘪菌,求到了任意時(shí)刻k的誤差項(xiàng)

下面是具體的推導(dǎo)過程:
主要就是用了 鏈鎖反應(yīng) 和 Jacobian 矩陣

2

其中 s 和 net 的關(guān)系如下,有助于理解求導(dǎo)公式:


學(xué)習(xí)資料中式 4 就是將誤差項(xiàng)傳遞到上一層算法:

這一步和普通的全連接層的算法是完全一樣的嘹朗,具體的推導(dǎo)過程如下:

3

其中 net 的 l 層 和 l-1 層的關(guān)系如下:


BPTT 算法的最后一步:計(jì)算每個(gè)權(quán)重的梯度
學(xué)習(xí)資料中式 6 就是計(jì)算循環(huán)層權(quán)重矩陣 W 的梯度的公式:

具體的推導(dǎo)過程如下:

4

和權(quán)重矩陣 W 的梯度計(jì)算方式一樣师妙,可以得到誤差函數(shù)在 t 時(shí)刻對(duì)權(quán)重矩陣 U 的梯度:


3. 基于 RNN 的語言模型例子

我們要用 RNN 做這樣一件事情,每輸入一個(gè)詞屹培,循環(huán)神經(jīng)網(wǎng)絡(luò)就輸出截止到目前為止默穴,下一個(gè)最可能的詞,如下圖所示:

首先褪秀,要把詞表達(dá)為向量的形式:

  • 建立一個(gè)包含所有詞的詞典蓄诽,每個(gè)詞在詞典里面有一個(gè)唯一的編號(hào)。
  • 任意一個(gè)詞都可以用一個(gè)N維的one-hot向量來表示媒吗。

這種向量化方法若专,我們就得到了一個(gè)高維、稀疏的向量蝴猪,這之后需要使用一些降維方法调衰,將高維的稀疏向量轉(zhuǎn)變?yōu)榈途S的稠密向量。

為了輸出 “最可能” 的詞自阱,所以需要計(jì)算詞典中每個(gè)詞是當(dāng)前詞的下一個(gè)詞的概率嚎莉,再選擇概率最大的那一個(gè)。

因此沛豌,神經(jīng)網(wǎng)絡(luò)的輸出向量也是一個(gè) N 維向量趋箩,向量中的每個(gè)元素對(duì)應(yīng)著詞典中相應(yīng)的詞是下一個(gè)詞的概率:

為了讓神經(jīng)網(wǎng)絡(luò)輸出概率赃额,就要用到 softmax 層作為輸出層。

softmax函數(shù)的定義:
因?yàn)楹透怕实奶卣魇且粯拥慕腥罚钥梢园阉鼈兛醋鍪歉怕省?/p>

例:

計(jì)算過程為:


含義就是:
模型預(yù)測(cè)下一個(gè)詞是詞典中第一個(gè)詞的概率是 0.03跳芳,是詞典中第二個(gè)詞的概率是 0.09。

語言模型如何訓(xùn)練竹勉?

把語料轉(zhuǎn)換成語言模型的訓(xùn)練數(shù)據(jù)集飞盆,即對(duì)輸入 x 和標(biāo)簽 y 進(jìn)行向量化,y 也是一個(gè) one-hot 向量

接下來次乓,對(duì)概率進(jìn)行建模吓歇,一般用交叉熵誤差函數(shù)作為優(yōu)化目標(biāo)。

交叉熵誤差函數(shù)票腰,其定義如下:

用上面例子就是:


計(jì)算過程如下:


有了模型城看,優(yōu)化目標(biāo),梯度表達(dá)式杏慰,就可以用梯度下降算法進(jìn)行訓(xùn)練了测柠。


4. 代碼實(shí)現(xiàn)

RNN 的 Python 實(shí)現(xiàn)代碼可以在學(xué)習(xí)資料中找到。


關(guān)于神經(jīng)網(wǎng)絡(luò)缘滥,寫過的文章匯總:

Neural Networks Are Cool
理論
神經(jīng)網(wǎng)絡(luò)的前世
神經(jīng)網(wǎng)絡(luò) 之 感知器的概念和實(shí)現(xiàn)
神經(jīng)網(wǎng)絡(luò) 之 線性單元
手寫鹃愤,純享版反向傳播算法公式推導(dǎo)
常用激活函數(shù)比較
什么是神經(jīng)網(wǎng)絡(luò)
模型
圖解何為CNN
用 Tensorflow 建立 CNN
圖解RNN
CS224d-Day 5: RNN快速入門
用深度神經(jīng)網(wǎng)絡(luò)處理NER命名實(shí)體識(shí)別問題
用 RNN 訓(xùn)練語言模型生成文本
RNN與機(jī)器翻譯
用 Recursive Neural Networks 得到分析樹
RNN的高級(jí)應(yīng)用
TensorFlow
一文學(xué)會(huì)用 Tensorflow 搭建神經(jīng)網(wǎng)絡(luò)
用 Tensorflow 建立 CNN
對(duì)比學(xué)習(xí)用 Keras 搭建 CNN RNN 等常用神經(jīng)網(wǎng)絡(luò)

推薦閱讀 歷史技術(shù)博文鏈接匯總
也許可以找到你想要的

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市完域,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌瘩将,老刑警劉巖吟税,帶你破解...
    沈念sama閱讀 206,482評(píng)論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異姿现,居然都是意外死亡肠仪,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,377評(píng)論 2 382
  • 文/潘曉璐 我一進(jìn)店門备典,熙熙樓的掌柜王于貴愁眉苦臉地迎上來异旧,“玉大人,你說我怎么就攤上這事提佣∷庇迹” “怎么了?”我有些...
    開封第一講書人閱讀 152,762評(píng)論 0 342
  • 文/不壞的土叔 我叫張陵拌屏,是天一觀的道長(zhǎng)潮针。 經(jīng)常有香客問我,道長(zhǎng)倚喂,這世上最難降的妖魔是什么每篷? 我笑而不...
    開封第一講書人閱讀 55,273評(píng)論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上焦读,老公的妹妹穿的比我還像新娘子库。我一直安慰自己,他們只是感情好矗晃,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,289評(píng)論 5 373
  • 文/花漫 我一把揭開白布仑嗅。 她就那樣靜靜地躺著,像睡著了一般喧兄。 火紅的嫁衣襯著肌膚如雪无畔。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,046評(píng)論 1 285
  • 那天吠冤,我揣著相機(jī)與錄音浑彰,去河邊找鬼。 笑死拯辙,一個(gè)胖子當(dāng)著我的面吹牛郭变,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播涯保,決...
    沈念sama閱讀 38,351評(píng)論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼诉濒,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了夕春?” 一聲冷哼從身側(cè)響起未荒,我...
    開封第一講書人閱讀 36,988評(píng)論 0 259
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎及志,沒想到半個(gè)月后片排,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,476評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡速侈,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 35,948評(píng)論 2 324
  • 正文 我和宋清朗相戀三年率寡,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片倚搬。...
    茶點(diǎn)故事閱讀 38,064評(píng)論 1 333
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡冶共,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出每界,到底是詐尸還是另有隱情捅僵,我是刑警寧澤,帶...
    沈念sama閱讀 33,712評(píng)論 4 323
  • 正文 年R本政府宣布眨层,位于F島的核電站命咐,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏谐岁。R本人自食惡果不足惜醋奠,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,261評(píng)論 3 307
  • 文/蒙蒙 一榛臼、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧窜司,春花似錦沛善、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,264評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至议薪,卻和暖如春尤蛮,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背斯议。 一陣腳步聲響...
    開封第一講書人閱讀 31,486評(píng)論 1 262
  • 我被黑心中介騙來泰國(guó)打工产捞, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人哼御。 一個(gè)月前我還...
    沈念sama閱讀 45,511評(píng)論 2 354
  • 正文 我出身青樓坯临,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親恋昼。 傳聞我的和親對(duì)象是個(gè)殘疾皇子看靠,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,802評(píng)論 2 345

推薦閱讀更多精彩內(nèi)容