One-Shot Generalization in Deep Generative Models 閱讀筆記

一. 引述

  • 傳統(tǒng)深度網(wǎng)絡(luò):
    數(shù)據(jù)驅(qū)動(dòng)
    大量迭代
    遇到新數(shù)據(jù)重新訓(xùn)練
    低效
  • 神經(jīng)圖靈機(jī) (Neural Turing Machine):
    極少量樣本便可以進(jìn)行有效學(xué)習(xí)
    強(qiáng)大的推理能力
    人類水平的學(xué)習(xí)

人們可以從僅僅一個(gè)或一小撮樣本中學(xué)習(xí)一個(gè)新的概念,而機(jī)器學(xué)習(xí)的標(biāo)準(zhǔn)算法需要成百上千個(gè)類似的樣本

二. 人類水平的概念學(xué)習(xí)(Human Level Concept Learning掐暮;one-shot learning)

  • 給定一個(gè)單一的對(duì)象蝎抽,人類可以:
    分類新樣本;

生成類似類型的新樣本路克;

把它解析成部分樟结,并理解它們的關(guān)系养交。

三. Background

  • 人類善于僅憑單個(gè)例子對(duì)新概念和經(jīng)驗(yàn)進(jìn)行推理。

  • 人類擁有單次泛化的能力:遭遇新概念瓢宦,理解其結(jié)構(gòu)碎连,然后生成這個(gè)概念的有意義的變型。

  • Salakhutdinov et al.(2013)發(fā)展了一個(gè)結(jié)合了玻耳茲曼機(jī)和等級(jí)狄利克雷過程的概率模型驮履,可以學(xué)習(xí)層級(jí)概念類別鱼辙,并且提供了強(qiáng)大的生成模型.

  • Lake et al.(2015)等人利用基于組合性(Compositionality)、因果關(guān)系(Causality)和學(xué)會(huì)學(xué)習(xí)(Learning to learn)的貝葉斯程序?qū)W習(xí)完成了基于貝葉斯推斷的單點(diǎn)學(xué)習(xí)

四. Contribution

  • 結(jié)合了深度學(xué)習(xí)的表達(dá)能力貝葉斯推斷的推測(cè)能力

  • 展示了結(jié)合注意力機(jī)制與推斷對(duì)生成模型帶來的明顯提高

  • 模型可以在僅僅看一次實(shí)例的情況下生成有意義且多樣的樣本玫镐,提供了一類重要的單點(diǎn)機(jī)器學(xué)習(xí)的一般性模型倒戏。

五. Attention機(jī)制

從源信息中有選擇性地篩選出一部分信息被進(jìn)一步利用的機(jī)制。
人腦的注意力模型摘悴,就是說你看到了整幅畫面峭梳,但在特定的時(shí)刻t,你的意識(shí)和注意力的焦點(diǎn)是集中在畫面中的某一個(gè)部分上蹂喻,其它部分雖然還在你的眼中葱椭,但是你分配給它們的注意力資源是很少的

  • Reading attention:分類等判別式任務(wù),從圖像或者文字中篩選出一部分我們需要的信息口四。
  • Writing attention:是指對(duì)輸出變量的選擇性更新

generative process(生成過程)使用了writing attention機(jī)制孵运,在inference process(推理過程)使用了reading attention機(jī)制。

兩個(gè)機(jī)制在概念上有區(qū)分蔓彩,但實(shí)際運(yùn)用過程中遵從一樣的計(jì)算原理治笨,這篇文章中采用了spatial attention,使用參數(shù) λ 處理輸入圖像 x 以生成輸出

**κh 和κw 是一維核赤嚼,?是兩個(gè)核的張量外積旷赖,*表示卷積**

Attention是很神奇的東西,想仔細(xì)了解更卒,可以閱讀下面的論文:

  • Recurrent Models of Visual Attention (2014.06.24)
  • Show, Attend and Tell: Neural Image Caption Generation with Visual Attention (2015.02.10)
  • DRAW: A Recurrent Neural Network For Image Generation (2015.05.20)
  • Teaching Machines to Read and Comprehend (2015.06.04)
  • Learning Wake-Sleep Recurrent Attention Models (2015.09.22)
  • Action Recognition using Visual Attention (2015.10.12)
  • Recursive Recurrent Nets with Attention Modeling for OCR in the Wild (2016.03.09)
  • Sequence to Sequence Learning using Neural Networks
  • Reasoning about Neural Attention
  • A Neural Attention Model for Abstractive Sentence Summarization
  • Neural Machine Translation by Jointly Learning to Align and Translate

六. 高斯隱變量模型和變分推斷

隱變量:具有不可直接觀測(cè)特征綜合性變量
概率模型的中心任務(wù):給定觀測(cè)(可見)數(shù)據(jù)變量X的條件下等孵,計(jì)算潛在變量Z的后驗(yàn)概率分布P(Z | X)

**基于隱變量的貝葉斯概率模型**

EM算法:計(jì)算完整數(shù)據(jù)對(duì)數(shù)似然函數(shù)關(guān)于潛在變量后驗(yàn)概率分布的期望

實(shí)際應(yīng)用中計(jì)算后驗(yàn)概率分布或者后驗(yàn)概率分布的期望是不可?的 :

  • 潛在空間的維度太?,以?于?法直接計(jì)算
  • 后驗(yàn)概率分布的形式特別復(fù)雜蹂空,從?期望?法解析地計(jì)算
  • 隱含狀態(tài)的數(shù)量可能有指數(shù)多個(gè)俯萌,從?精確的計(jì)算所需的代價(jià)?

公式角度:

  • 如果變量維度過高,積分就會(huì)變得非常困難
  • 分布p非常復(fù)雜時(shí)上枕,積分就完全不可能了

選擇合適的分布q來逼近真實(shí)的后驗(yàn)概率分布p咐熙!!

七. 變分推斷(variational inference)變分貝葉斯(variational Bayes)

  • Gibbs Sampling這一類Monte Carlo算法,它們的做法就是通過抽取大量的樣本估計(jì)真實(shí)的后驗(yàn)分布辨萍;
  • 當(dāng)后驗(yàn)分布難于求解的時(shí)候我們就希望選擇一些簡(jiǎn)單的分布q來近似這些復(fù)雜的后驗(yàn)分布p棋恼;
  • 變分推斷限制近似分布的類型,從而得到一種局部最優(yōu),但具有確定解的近似后驗(yàn)分布蘸泻。

現(xiàn)在問題變成了如何選擇一個(gè)q(X),使得估算的效率最高:
1.考慮概率分布q是?個(gè)受限制的類別
2.充分限制q可以取得的概率分布的類別范圍琉苇,使得這個(gè)范圍中的所有概率分布都是我們可以處理
3.這個(gè)范圍充分?、充分靈活悦施,使它對(duì)真實(shí)后驗(yàn)概率分布的?個(gè)?夠好的近似

簡(jiǎn)單的分布怎么選:(假設(shè)各個(gè)變量之間相互獨(dú)立砍斷了所有變量之間的依賴關(guān)系)
1.Bethe自由能近似
2.平均場(chǎng)定理近似(復(fù)雜的多元積分變成簡(jiǎn)單的多個(gè)一元積分)

八. 變分自編碼器(Variational Auto-Encoder并扇,VAE)

**inference model是把觀測(cè)數(shù)據(jù)變成隱含描述的encoder**
generative model是decoder

decoder 以為任何結(jié)構(gòu)——MLP、CNN抡诞,RNN 或其他

想仔細(xì)了解變分自編碼穷蛹,變分推斷,高斯隱變量的可以閱讀下面文獻(xiàn):

  • Kingma et al. Auto-Encoding Variational Bayes.
  • Rezende et al. Stochastic Backpropagation and Approximate Inference in Deep Generative Models.
  • Kingma and Rezende et al. Semi-supervised Learning with Deep Generative Models.
  • Bishop. Pattern Recognition and Machine Learning.
  • Young et al. HTK handbook.
  • Blei et al. Variational Inference: A Review for Statisticians.
  • Doersch. Tutorial on Variational Autoencoders.
  • Kevin Frans. Variational Autoencoders Explained.
  • Sridharan. Gaussian mixture models and the EM algorithm.
  • Blei et al. Variational Inference: Foundations and Modern Methods.
  • Durr. Introduction to variational autoencoders .
  • Xu et al. Variational Autoencoders for Semi-supervised Text Classification.

此外昼汗,《PRML》《MLAPP》《Deep Learning》分別花了一個(gè)或兩個(gè)大章介紹隱變量模型肴熏、變分推斷、變分貝葉斯顷窒、變分自編碼器

九. Sequential Generative Model(順序生成模型)

順序生成模型是VAE模型的一個(gè)自然延伸蛙吏,用T時(shí)間段內(nèi)的一系列隱變量來描述觀測(cè)變量

順序生成模型
  • z(t)表示隱變量,x表示觀測(cè)數(shù)據(jù)
  • 隱狀態(tài)h(t)由前一時(shí)刻隱狀態(tài)h(t-1)和當(dāng)前時(shí)刻隱變量z(t)轉(zhuǎn)化
  • 論文里采用的轉(zhuǎn)化機(jī)制是LSTM單元
  • c(t)也是一種隱變量(hiddenvariables)鞋吉,可以把它稱為“隱容器”(hidden canvas)
  • ct利用writing attention鸦做,reading attention則被利用在z(t)的inference階段中。

十. result

評(píng)價(jià)指標(biāo)NLL

不同難度的推理任務(wù)實(shí)驗(yàn)
(1)生成新樣本
a) weak shot-geralization

**訓(xùn)練數(shù)據(jù)包括所有的字母,但是測(cè)試數(shù)據(jù)在每一個(gè)字母上刪除了的三種字符類型。**

b) strong shot-geralization

**訓(xùn)練數(shù)據(jù)是部分字母苛谷,測(cè)試數(shù)據(jù)是剩余的字母。圖從左到右分別是三種訓(xùn)練-測(cè)試數(shù)據(jù)大小的拆分方式治筒。**


(2)生成新類型

**訓(xùn)練數(shù)據(jù):外文字母表中的10個(gè)字母,要求機(jī)器生成同屬于一個(gè)字母表中的類似字母**
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末舷蒲,一起剝皮案震驚了整個(gè)濱河市耸袜,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌牲平,老刑警劉巖句灌,帶你破解...
    沈念sama閱讀 212,884評(píng)論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異欠拾,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)骗绕,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,755評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門藐窄,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人酬土,你說我怎么就攤上這事荆忍。” “怎么了?”我有些...
    開封第一講書人閱讀 158,369評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵刹枉,是天一觀的道長(zhǎng)叽唱。 經(jīng)常有香客問我,道長(zhǎng)微宝,這世上最難降的妖魔是什么棺亭? 我笑而不...
    開封第一講書人閱讀 56,799評(píng)論 1 285
  • 正文 為了忘掉前任,我火速辦了婚禮蟋软,結(jié)果婚禮上镶摘,老公的妹妹穿的比我還像新娘。我一直安慰自己岳守,他們只是感情好凄敢,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,910評(píng)論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著湿痢,像睡著了一般涝缝。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上譬重,一...
    開封第一講書人閱讀 50,096評(píng)論 1 291
  • 那天拒逮,我揣著相機(jī)與錄音,去河邊找鬼害幅。 笑死消恍,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的以现。 我是一名探鬼主播狠怨,決...
    沈念sama閱讀 39,159評(píng)論 3 411
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼邑遏!你這毒婦竟也來了佣赖?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,917評(píng)論 0 268
  • 序言:老撾萬榮一對(duì)情侶失蹤记盒,失蹤者是張志新(化名)和其女友劉穎憎蛤,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體纪吮,經(jīng)...
    沈念sama閱讀 44,360評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡俩檬,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,673評(píng)論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了碾盟。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片棚辽。...
    茶點(diǎn)故事閱讀 38,814評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖冰肴,靈堂內(nèi)的尸體忽然破棺而出屈藐,到底是詐尸還是另有隱情榔组,我是刑警寧澤,帶...
    沈念sama閱讀 34,509評(píng)論 4 334
  • 正文 年R本政府宣布联逻,位于F島的核電站搓扯,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏包归。R本人自食惡果不足惜锨推,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 40,156評(píng)論 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望箫踩。 院中可真熱鬧爱态,春花似錦、人聲如沸境钟。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,882評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽慨削。三九已至洞渔,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間缚态,已是汗流浹背磁椒。 一陣腳步聲響...
    開封第一講書人閱讀 32,123評(píng)論 1 267
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留玫芦,地道東北人浆熔。 一個(gè)月前我還...
    沈念sama閱讀 46,641評(píng)論 2 362
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像桥帆,于是被迫代替她去往敵國和親医增。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,728評(píng)論 2 351

推薦閱讀更多精彩內(nèi)容