深度學習中的注意力機制

Neil Zhu,簡書ID Not_GOD,University AI 創(chuàng)始人 & Chief Scientist腺办,致力于推進世界人工智能化進程焰手。制定并實施 UAI 中長期增長戰(zhàn)略和目標,帶領(lǐng)團隊快速成長為人工智能領(lǐng)域最專業(yè)的力量怀喉。
作為行業(yè)領(lǐng)導者书妻,他和UAI一起在2014年創(chuàng)建了TASA(中國最早的人工智能社團), DL Center(深度學習知識中心全球價值網(wǎng)絡(luò)),AI growth(行業(yè)智庫培訓)等躬拢,為中國的人工智能人才建設(shè)輸送了大量的血液和養(yǎng)分躲履。此外,他還參與或者舉辦過各類國際性的人工智能峰會和活動聊闯,產(chǎn)生了巨大的影響力崇呵,書寫了60萬字的人工智能精品技術(shù)內(nèi)容,生產(chǎn)翻譯了全球第一本深度學習入門書《神經(jīng)網(wǎng)絡(luò)與深度學習》馅袁,生產(chǎn)的內(nèi)容被大量的專業(yè)垂直公眾號和媒體轉(zhuǎn)載與連載域慷。曾經(jīng)受邀為國內(nèi)頂尖大學制定人工智能學習規(guī)劃和教授人工智能前沿課程,均受學生和老師好評汗销。

考慮輸入序列或者圖像
考慮上層表示犹褒,這一層可以選擇<看哪兒>,通過賦值一個權(quán)重或者概率給每個輸入位置弛针,正如一個 MLP 產(chǎn)生輸出那樣叠骑,應用在每個位置上:

Paste_Image.png

上圖
問題:使用 RNN 來學習選擇性的注意力怎么樣?你覺得在這個領(lǐng)域什么是最有潛力的方法削茁?
Juergen Schmidhuber 回答說:我認為這是一個非常有趣的話題宙枷。人類和其他生物系統(tǒng)使用順序的凝視移動來檢測和識別模式。這個可以變得比全并行的模式識別方法更加高效茧跋。據(jù)我所知慰丛,25年錢,我們已經(jīng)用了一個使用強化學習訓練出來的神經(jīng)網(wǎng)絡(luò)來順序地注意一幅輸入圖像的相關(guān)區(qū)域瘾杭,并使用了適應性的注意力機制來確定關(guān)注哪些地方诅病。這個系統(tǒng)使用了一個 RNN 方法在fovea saccades or “glimpses” [1][2] 上來學習目標輸入(這些只是玩具例子——那個時候的計算能力要比現(xiàn)在弱百萬倍)。我們持續(xù)研究了這個方法粥烁。例如贤笆,最近 Marijn Stollenga 和 Jonathan Masci 實現(xiàn)了一個包含反向鏈接的 CNN 學習來控制一個內(nèi)部的注意力點。Univ. Toronto 和 DeepMind 同樣也在基于注意力的神經(jīng)網(wǎng)絡(luò)[4,5]上發(fā)表了文章讨阻。當然芥永,RL RNN 在部分可觀測的場景中使用了原始的高維視覺輸入流學習了視覺注意力作為副產(chǎn)品。[6] 我偏愛 [6] 中觀點的通用性钝吮,我們在未來應該可以看到這方面更多的推廣埋涧。

參考文獻:

[1] J. Schmidhuber and R. Huber. Learning to generate focus trajectories for attentive vision. TR FKI-128-90, TUM, 1990. Images: http://people.idsia.ch/~juergen/attentive.html
[2] J. Schmidhuber and R. Huber. Learning to generate artificial fovea trajectories for target detection. International Journal of Neural Systems, 2(1 & 2):135-141, 1991
[3] M. Stollenga, J. Masci, F. Gomez, J. Schmidhuber. Deep Networks with Internal Selective Attention through Feedback Connections. NIPS 2014
[4] V. Mnih, N. Heess, A. Graves, K. Kavukcuoglu. Recurrent Models of Visual Attention. NIPS 2014.
[5] H. Larochelle and G. Hinton. Learning to combine foveal glimpses with a third-order Boltzmann machine. NIPS 2010.
[6] J. Koutnik, G. Cuccu, J. Schmidhuber, F. Gomez. Evolving Large-Scale Neural Networks for Vision-Based Reinforcement Learning. In Proc. GECCO, Amsterdam, July 2013.http://people.idsia.ch/~juergen/compressednetworksearch.html

問題:你有關(guān)于 LSTM 發(fā)展方向的想法么贴唇,使用這種模型進行的推斷又是怎么樣的?你對 NTM 和 MN 怎么看飞袋?

Juergen Schmidhuber 回答說戳气,很高興能夠看到非標準可微的 LSTM 方法的復興,諸如神經(jīng)圖靈機和記憶網(wǎng)絡(luò)巧鸭。在 1990s 和 2000s瓶您,有很多相關(guān)的工作。例如:
對 alternative 記憶網(wǎng)絡(luò)(神經(jīng)棧式機器)的可微的 push 和 pop 動作纲仍,這些機器也是通用機器呀袱,至少在理論上是:

  • S. Das, C.L. Giles, G.Z. Sun, "Learning Context Free Grammars: Limitations of a Recurrent Neural Network with an External Stack Memory," Proc. 14th Annual Conf. of the Cog. Sci. Soc., p. 79, 1992.
  • Mozer, M. C., & Das, S. (1993). A connectionist symbol manipulator that discovers the structure of context-free languages. NIPS 5 (pp. 863-870).

記憶機器,其中控制網(wǎng)絡(luò)的外部可微存儲器存在于另一個網(wǎng)絡(luò)的快速權(quán)重中:

  • J. Schmidhuber. Learning to control fast-weight memories: An alternative to recurrent nets. Neural Computation, 4(1):131-139, 1992

LSTM 忘記門則與這些工作相關(guān):

  • F. Gers, N. Schraudolph, J. Schmidhuber. Learning precise timing with LSTM recurrent networks. JMLR 3:115-143, 2002.

帶有特定輸出單元用來 addressing 和以可微的方式快速處理每個 RNN 自身的權(quán)重的自指式 RNN (所以這樣的外部存儲實際上是內(nèi)部的):

  • J. Schmidhuber. An introspective network that can learn to run its own weight change algorithm. In Proc. of the Intl. Conf. on Artificial Neural Networks, Brighton, pages 191-195. IEE, 1993.

相關(guān)的基于 LSTM RNN 的系統(tǒng)實際上在實踐中學到了一種學習算法:

  • Hochreiter, Sepp; Younger, A. Steven; Conwell, Peter R. (2001). "Learning to Learn Using Gradient Descent". ICANN 2001, 2130: 87–94.
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末郑叠,一起剝皮案震驚了整個濱河市夜赵,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌乡革,老刑警劉巖寇僧,帶你破解...
    沈念sama閱讀 217,542評論 6 504
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異沸版,居然都是意外死亡嘁傀,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,822評論 3 394
  • 文/潘曉璐 我一進店門视粮,熙熙樓的掌柜王于貴愁眉苦臉地迎上來细办,“玉大人,你說我怎么就攤上這事蕾殴⌒ψ玻” “怎么了?”我有些...
    開封第一講書人閱讀 163,912評論 0 354
  • 文/不壞的土叔 我叫張陵钓觉,是天一觀的道長茴肥。 經(jīng)常有香客問我,道長议谷,這世上最難降的妖魔是什么炉爆? 我笑而不...
    開封第一講書人閱讀 58,449評論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮卧晓,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘赴捞。我一直安慰自己逼裆,他們只是感情好,可當我...
    茶點故事閱讀 67,500評論 6 392
  • 文/花漫 我一把揭開白布赦政。 她就那樣靜靜地躺著胜宇,像睡著了一般耀怜。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上桐愉,一...
    開封第一講書人閱讀 51,370評論 1 302
  • 那天财破,我揣著相機與錄音,去河邊找鬼从诲。 笑死左痢,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的系洛。 我是一名探鬼主播俊性,決...
    沈念sama閱讀 40,193評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼描扯!你這毒婦竟也來了定页?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,074評論 0 276
  • 序言:老撾萬榮一對情侶失蹤绽诚,失蹤者是張志新(化名)和其女友劉穎典徊,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體恩够,經(jīng)...
    沈念sama閱讀 45,505評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡宫峦,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,722評論 3 335
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了玫鸟。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片导绷。...
    茶點故事閱讀 39,841評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖屎飘,靈堂內(nèi)的尸體忽然破棺而出妥曲,到底是詐尸還是另有隱情,我是刑警寧澤钦购,帶...
    沈念sama閱讀 35,569評論 5 345
  • 正文 年R本政府宣布檐盟,位于F島的核電站,受9級特大地震影響押桃,放射性物質(zhì)發(fā)生泄漏葵萎。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,168評論 3 328
  • 文/蒙蒙 一唱凯、第九天 我趴在偏房一處隱蔽的房頂上張望羡忘。 院中可真熱鬧,春花似錦磕昼、人聲如沸卷雕。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,783評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽漫雕。三九已至滨嘱,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間浸间,已是汗流浹背太雨。 一陣腳步聲響...
    開封第一講書人閱讀 32,918評論 1 269
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留魁蒜,地道東北人囊扳。 一個月前我還...
    沈念sama閱讀 47,962評論 2 370
  • 正文 我出身青樓,卻偏偏與公主長得像梅惯,于是被迫代替她去往敵國和親宪拥。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 44,781評論 2 354

推薦閱讀更多精彩內(nèi)容