Keras Recurrent Layers 解析

Neil Zhu,簡書ID Not_GOD迷扇,University AI 創(chuàng)始人 & Chief Scientist,致力于推進(jìn)世界人工智能化進(jìn)程。制定并實(shí)施 UAI 中長期增長戰(zhàn)略和目標(biāo)骗村,帶領(lǐng)團(tuán)隊(duì)快速成長為人工智能領(lǐng)域最專業(yè)的力量。
作為行業(yè)領(lǐng)導(dǎo)者呀枢,他和UAI一起在2014年創(chuàng)建了TASA(中國最早的人工智能社團(tuán)), DL Center(深度學(xué)習(xí)知識中心全球價值網(wǎng)絡(luò))胚股,AI growth(行業(yè)智庫培訓(xùn))等,為中國的人工智能人才建設(shè)輸送了大量的血液和養(yǎng)分裙秋。此外琅拌,他還參與或者舉辦過各類國際性的人工智能峰會和活動,產(chǎn)生了巨大的影響力摘刑,書寫了60萬字的人工智能精品技術(shù)內(nèi)容进宝,生產(chǎn)翻譯了全球第一本深度學(xué)習(xí)入門書《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》,生產(chǎn)的內(nèi)容被大量的專業(yè)垂直公眾號和媒體轉(zhuǎn)載與連載枷恕。曾經(jīng)受邀為國內(nèi)頂尖大學(xué)制定人工智能學(xué)習(xí)規(guī)劃和教授人工智能前沿課程党晋,均受學(xué)生和老師好評。

GRU

keras.layers.recurrent.GRU(input_dim, output_dim=128, init='glorot_uniform', inner_init='orthogonal', activation='sigmoid', inner_activation='hard_sigmoid', weights=None, truncate_gradient=-1, return_sequences=False)

Gated Recurrent Unit - Cho et al. 2014.

  • 輸入形狀:3D 張量:(nb_samples, timesteps, input_dim).
  • 輸出形狀:
  • 如果 return_sequences:3D 張量形如:(nb_samples, timesteps, output_dim).
  • 否則:2D 張量形如:(nb_samples, output_dim).
  • 參數(shù):
  • input_dim:輸入的維數(shù)
  • output_dim:內(nèi)部投影的維數(shù)和最終輸出的維數(shù)
  • init:權(quán)重初始函數(shù)徐块∥床#可以是任何已經(jīng)存在的函數(shù)(str),或者是一個 Theano 的函數(shù)(參見:初始化
  • inner_init:對內(nèi)部元件的權(quán)重初始化函數(shù)
  • activation:激活函數(shù)胡控“饨耍可以是任何已經(jīng)存在的函數(shù)(str),或者是一個 Theano 的函數(shù)(參見:初始化
  • inner_activation:內(nèi)部元件的激活函數(shù)
  • weights:numpy 數(shù)組的列表用以設(shè)置初始權(quán)重昼激。這個列表應(yīng)該有 9 個元素
  • truncate_gradient:BPTT 的截?cái)鄷r間步舞终。參見:Theano scan
  • return_sequences:Boolean轻庆。是否返回輸出序列的最后一個,或者返回全部序列敛劝。
  • References:
  • On the Properties of Neural Machine Translation: Encoder–Decoder Approaches
  • Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling

LSTM

keras.layers.recurrent.LSTM(input_dim, output_dim=128, init='glorot_uniform', inner_init='orthogonal', forget_bias_init='one', activation='tanh', inner_activation='hard_sigmoid', weights=None, truncate_gradient=-1, return_sequences=False)

Long Short-Term Memory unit - Hochreiter et al. 1997

  • 輸入形狀:3D 張量:(nb_samples, timesteps, input_dim).
  • 輸出形狀:
  • 如果 return_sequences:3D 張量形如:(nb_samples, timesteps, output_dim).
  • 否則:2D 張量形如:(nb_samples, output_dim).
  • 參數(shù):
  • input_dim:輸入的維數(shù)
  • output_dim:內(nèi)部投影的維數(shù)和最終輸出的維數(shù)
  • init:權(quán)重初始函數(shù)余爆。可以是任何已經(jīng)存在的函數(shù)(str)夸盟,或者是一個 Theano 的函數(shù)(參見:初始化
  • inner_init:對內(nèi)部元件的權(quán)重初始化函數(shù)
  • forget_bias_init:用作遺忘門的偏差初的始函數(shù)蛾方。Jozefowicz 等人推薦使用 1 來初始化
  • activation:激活函數(shù)∩仙拢可以是任何已經(jīng)存在的函數(shù)(str)桩砰,或者是一個 Theano 的函數(shù)(參見:初始化
  • inner_activation:內(nèi)部元件的激活函數(shù)
  • weights:numpy 數(shù)組的列表用以設(shè)置初始權(quán)重。這個列表應(yīng)該有 9 個元素
  • truncate_gradient:BPTT 的截?cái)鄷r間步释簿。參見:Theano scan
  • return_sequences:Boolean亚隅。是否返回輸出序列的最后一個,或者返回全部序列庶溶。
  • References:
  • Long short-term memory
  • Learning to forget: Continual prediction with LSTM
  • Supervised sequence labelling with recurrent neural networks

JZS1, JZS2, JZS3

keras.layers.recurrent.JZS1(input_dim, output_dim=128, init='glorot_uniform', inner_init='orthogonal', activation='tanh', inner_activation='sigmoid', weights=None, truncate_gradient=-1, return_sequences=False)```
全連接的 RNN 其中輸出被重回輸入煮纵。不是特別有用,僅供參考偏螺。
* 輸入形狀:3D 張量:`(nb_samples, timesteps, input_dim)`.
* 輸出形狀:
 * 如果 `return_sequences`:3D 張量形如:`(nb_samples, timesteps, output_dim)`.
 * 否則:2D 張量形如:`(nb_samples, output_dim)`.
* 參數(shù):
 * input_dim
 * output_dim
 * init:權(quán)重初始函數(shù)行疏。可以是任何已經(jīng)存在的函數(shù)(str)套像,或者是一個 Theano 的函數(shù)(參見:[初始化](http://keras.io/initializations/))
 * inner_init:內(nèi)部元件的初始化的函數(shù)
 * activation:激活函數(shù)酿联。可以是任何已經(jīng)存在的函數(shù)(str)夺巩,或者是一個 Theano 的函數(shù)(參見:[初始化](http://keras.io/activations/))
 * weights:numpy 數(shù)組的列表用以設(shè)置初始權(quán)重贞让。這個列表應(yīng)該有 3 個元素,形如:`[(input_dim, output_dim), (output_di,, output_dim), (output_dim, )]`
 * truncate_gradient:BPTT 的截?cái)鄷r間步柳譬。參見:[Theano scan](http://deeplearning.net/software/theano/library/scan.html)
 * return_sequences:Boolean震桶。是否返回輸出序列的最后一個,或者返回全部序列征绎。
* 參考文獻(xiàn):
 [An Empirical Exploration of Recurrent Network Architectures](http://www.jmlr.org/proceedings/papers/v37/jozefowicz15.pdf)
---
# SimpleDeepRNN

keras.layers.recurrent.SimpleDeepRNN(input_dim, output_dim, depth=3, init='glorot_uniform', inner_init='orthogonal', activation='sigmoid', inner_activation='hard_sigmoid', weights=None, truncate_gradient=-1, return_sequences=False)

全連接的 RNN 其中多個時間步的輸出重回輸入中(使用 depth 參數(shù)來控制步數(shù))蹲姐。

output = activation( W.x_t + b + inner_activation(U_1.h_tm1) + inner_activation(U_2.h_tm2) + ... )

也不是常用的模型,僅供參考人柿。
* 輸入形狀:3D 張量:`(nb_samples, timesteps, input_dim)`.
* 輸出形狀:
 * 如果 `return_sequences`:3D 張量形如:`(nb_samples, timesteps, output_dim)`.
 * 否則:2D 張量形如:`(nb_samples, output_dim)`.
* 參數(shù):
 * input_dim
 * output_dim
 * init:權(quán)重初始函數(shù)柴墩。可以是任何已經(jīng)存在的函數(shù)(str)凫岖,或者是一個 Theano 的函數(shù)(參見:[初始化](http://keras.io/initializations/))
 * inner_init:對內(nèi)部元件的權(quán)重初始化函數(shù)
 * activation:激活函數(shù)江咳。可以是任何已經(jīng)存在的函數(shù)(str)哥放,或者是一個 Theano 的函數(shù)(參見:[初始化](http://keras.io/activations/))
 * inner_activation:內(nèi)部元件的激活函數(shù)
 * weights:numpy 數(shù)組的列表用以設(shè)置初始權(quán)重歼指。這個列表應(yīng)該有 3 個元素爹土,形如:`[(input_dim, output_dim), (output_di,, output_dim), (output_dim, )]`
 * truncate_gradient:BPTT 的截?cái)鄷r間步。參見:[Theano scan](http://deeplearning.net/software/theano/library/scan.html)
 * return_sequences:Boolean踩身。是否返回輸出序列的最后一個胀茵,或者返回全部序列。
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末挟阻,一起剝皮案震驚了整個濱河市琼娘,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌附鸽,老刑警劉巖脱拼,帶你破解...
    沈念sama閱讀 211,884評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異坷备,居然都是意外死亡熄浓,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,347評論 3 385
  • 文/潘曉璐 我一進(jìn)店門省撑,熙熙樓的掌柜王于貴愁眉苦臉地迎上來赌蔑,“玉大人,你說我怎么就攤上這事丁侄」喏ǎ” “怎么了朝巫?”我有些...
    開封第一講書人閱讀 157,435評論 0 348
  • 文/不壞的土叔 我叫張陵鸿摇,是天一觀的道長。 經(jīng)常有香客問我劈猿,道長拙吉,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,509評論 1 284
  • 正文 為了忘掉前任揪荣,我火速辦了婚禮筷黔,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘仗颈。我一直安慰自己佛舱,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,611評論 6 386
  • 文/花漫 我一把揭開白布挨决。 她就那樣靜靜地躺著请祖,像睡著了一般。 火紅的嫁衣襯著肌膚如雪脖祈。 梳的紋絲不亂的頭發(fā)上肆捕,一...
    開封第一講書人閱讀 49,837評論 1 290
  • 那天,我揣著相機(jī)與錄音盖高,去河邊找鬼慎陵。 笑死眼虱,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的席纽。 我是一名探鬼主播捏悬,決...
    沈念sama閱讀 38,987評論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼胆筒!你這毒婦竟也來了邮破?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,730評論 0 267
  • 序言:老撾萬榮一對情侶失蹤仆救,失蹤者是張志新(化名)和其女友劉穎抒和,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體彤蔽,經(jīng)...
    沈念sama閱讀 44,194評論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡摧莽,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,525評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了顿痪。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片镊辕。...
    茶點(diǎn)故事閱讀 38,664評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖蚁袭,靈堂內(nèi)的尸體忽然破棺而出征懈,到底是詐尸還是另有隱情,我是刑警寧澤揩悄,帶...
    沈念sama閱讀 34,334評論 4 330
  • 正文 年R本政府宣布卖哎,位于F島的核電站,受9級特大地震影響删性,放射性物質(zhì)發(fā)生泄漏亏娜。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,944評論 3 313
  • 文/蒙蒙 一蹬挺、第九天 我趴在偏房一處隱蔽的房頂上張望维贺。 院中可真熱鬧,春花似錦巴帮、人聲如沸溯泣。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,764評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽垃沦。三九已至,卻和暖如春雪猪,著一層夾襖步出監(jiān)牢的瞬間栏尚,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,997評論 1 266
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留译仗,地道東北人抬虽。 一個月前我還...
    沈念sama閱讀 46,389評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像纵菌,于是被迫代替她去往敵國和親阐污。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,554評論 2 349

推薦閱讀更多精彩內(nèi)容

  • 上一篇介紹了卷基層咱圆,可以用來構(gòu)建很常見的卷積神經(jīng)網(wǎng)絡(luò)等模型笛辟。那么今天將要介紹的是遞歸層,是一個可以用來構(gòu)建遞歸網(wǎng)絡(luò)...
    readilen閱讀 1,148評論 0 0
  • 從這篇開始介紹Keras的Layers序苏,就是構(gòu)成網(wǎng)絡(luò)的每一層手幢。Keras實(shí)現(xiàn)了很多層,包括核心層忱详、卷基層围来、RNN網(wǎng)...
    readilen閱讀 2,108評論 1 3
  • 上一篇介紹了基礎(chǔ)核心層,就是用來構(gòu)建普通網(wǎng)絡(luò)的基礎(chǔ)部件匈睁。這一篇主要介紹的是卷積層监透,主要用于構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)等需要用...
    readilen閱讀 2,254評論 0 0
  • 本篇介紹的內(nèi)容主要用于NLP(Nature Language Process, 自然語言處理)。Deep Lear...
    readilen閱讀 979評論 0 0
  • 本系列文章面向深度學(xué)習(xí)研發(fā)者航唆,希望通過Image Caption Generation胀蛮,一個有意思的具體任務(wù),深入...
    imGeek閱讀 934評論 2 3