Generative Model(VAE1)

Unspervised learning主要任務(wù)目標(biāo)是發(fā)掘數(shù)據(jù)潛在有價(jià)值的結(jié)構(gòu)驾锰,主要分為clustering,dimentionality reduction,feature learning, density estimation
Generative Model主要任務(wù)是給定一個(gè)數(shù)據(jù)集P(data)割捅,通過(guò)模型P(model)學(xué)習(xí)樣本的分布,可以通過(guò)模型生成近似原樣本分布的數(shù)據(jù)帚桩。主要屬于density estimation范疇亿驾。
作用主要:

  • 根據(jù)需求近似生成真實(shí)數(shù)據(jù),想象空間非常大账嚎,這是一個(gè)富裕想象力與創(chuàng)造性的莫瞬,比如生成馬賽克,美顏郭蕉,生成畫(huà)作等疼邀,當(dāng)然能生成的也是可以去掉的。
  • 生成時(shí)間序列數(shù)據(jù)召锈,可以用于強(qiáng)化學(xué)習(xí)
  • 也可以用于feature learning等
Generative Model

按方法分類(lèi)generative model旁振,主要分為explicity and implicity density,這次主要介紹explicity的方法涨岁。
從定義上來(lái)說(shuō)拐袜,explicity density就是我直接通過(guò)定義P(model),然后通過(guò)來(lái)最大化data likelihood求解P(model)梢薪。implicity density就是不直接定義P(model),但是模型可以sample出data蹬铺。
然后根據(jù)定義的density確定的likelihood是否能直接給出求解方法,如果可以那就直接解唄秉撇,說(shuō)明你定義了一個(gè)tractable density丛塌。
比如Fully visible belief nets的PixelRNN & CNN,按照每個(gè)像素定義每一張圖的likelihood畜疾,用鏈?zhǔn)椒▌t分解likelihood為給定先前的pixels當(dāng)前pixel的條件概率乘積

Full visible belief network

看圖中條件概率是很復(fù)雜赴邻,自然就可以想到用神經(jīng)網(wǎng)絡(luò)去做transformation,神經(jīng)網(wǎng)絡(luò)是很好的復(fù)雜函數(shù)的擬合器啡捶。重點(diǎn)是如果做這個(gè)conditional prob呢姥敛?

  • generate image pixels starting from corner
  • dependency on previous pixels modeled using an RNN(LSTM)
    RNN很輕松就可以做成依賴(lài)關(guān)系,畢竟sequential model.
    PixelRNN效果很好瞎暑,但是缺點(diǎn)是比較慢彤敛,畢竟pixel by pixel sequential generation。
    那么就出現(xiàn)了PixelCNN了赌,和PixelRNN很像墨榄,只是用了CNN來(lái)做dependency on previous pixels,根據(jù)已經(jīng)產(chǎn)生的局部塊圖(content region)來(lái)生成pixel勿她。
    PixelCNN

PixelCNN訓(xùn)練過(guò)程較快袄秩,但是生成圖片一樣的是sequential generation比較慢。
不得不說(shuō)大神不論在算法還是應(yīng)用都是很厲害的!這里只簡(jiǎn)單介紹之剧,其實(shí)這個(gè)有很多精彩的地方郭卫!畢竟這里主要介紹VAE。

VAE

這里我決定給像我這樣的小白講講variational autoencoder
先講一下variational inference背稼,為什么會(huì)有這個(gè)東西贰军,預(yù)備知識(shí)如下

  • information theory
    information,entropy蟹肘,differential entropy
  • KL Divergence
    KL Divergence和lnp(x)關(guān)系
  • Graphical Model
  • Variational Inf
  1. information(I)是來(lái)衡量一個(gè)隨機(jī)事件的信息量I = -logP(x),定義上直觀(guān)理解词疼,一個(gè)事件x發(fā)生的概率越大,其信息量越小帘腹,比如你本來(lái)就知道太陽(yáng)明天會(huì)升起贰盗,那么我告訴你這個(gè)事件,其實(shí)并沒(méi)有帶來(lái)任何信息
  2. entropy/avg information
    根據(jù)概率平均information竹椒,代表隨機(jī)變量的平均信息量H = sum(P(x)*-logP(x))
  3. differential entropy
    entropy適用于離散變量童太,連續(xù)變量的entropy叫differential entropy,求和換為積分就ok了
  4. KL Divergence/ Relative Entropy
    它是通過(guò)entropy來(lái)衡量2個(gè)分布的距離胸完,KL(p||q)代表根據(jù)p概率來(lái)衡量q和p的entropy差距书释,很自然就寫(xiě)出entropy(q) - entropy(p) = sum(-q(x)log(q(x)) - sum(-p(x)log(p(x)),剛提到是按照p的概率,所以寫(xiě)成 KL(p||q) = sum(-p(x)log(q(x)) - sum(-p(x)log(p(x)),按p的概率求和就ok了赊窥,整理寫(xiě)成KL(p||q) = sum(p(x)log[p(x)/q(x)])
    KL Divergence兩個(gè)性質(zhì):1.大于等于零 2. 不是對(duì)稱(chēng)的爆惧,不具備距離度量公理,但是其實(shí)更合理一點(diǎn)锨能,在生活中扯再!
  5. KL Divergence 和 lnP(x)

    舉個(gè)例子,假設(shè)現(xiàn)在有個(gè)分布P(x|z)址遇,我們不知道這個(gè)熄阻,所以想用一個(gè)分布q(z)來(lái)估計(jì)它,我們當(dāng)然也不知q(z)是什么,先來(lái)估計(jì)吧倔约。那很自然就可以想到用KL Divergence來(lái)衡量估計(jì)得好壞秃殉,KL Divergence剛提到是用來(lái)衡量?jī)蓚€(gè)分布差異的,越小說(shuō)明分布差異越小(不得不寫(xiě)公式了)
    這里得到了lower bound L浸剩,那為什么要用lower bound求解呢钾军,那肯定是lower bound好求么。绢要。一般情況下直接求KL是解不出來(lái)的吏恭,因?yàn)橛袀€(gè)條件概率,我們比較好得到聯(lián)合概率重罪,下面具體說(shuō)說(shuō)
  6. Graphical Model
    簡(jiǎn)答介紹一點(diǎn)樱哼,告訴你為什么條件概率比較難求哀九,簡(jiǎn)單畫(huà)個(gè)圖吧
    箭頭代表依賴(lài)關(guān)系,給你這個(gè)圖可以很容易寫(xiě)出聯(lián)合概率分布,但是條件概率分母有積分唇礁,通常情況下是求不出來(lái)勾栗。
    那怎么辦呢惨篱?得到聯(lián)合概率是否可以得到條件概率呢盏筐,不用計(jì)算積分呢?
    Problem:不積分通過(guò)聯(lián)合概率來(lái)求條件概率
    Yes砸讳!不行還說(shuō)什么琢融,variational inference登場(chǎng)了!variational inference不是唯一的方法解決這個(gè)問(wèn)題簿寂,主要還有
  • MCMC:Metropolis hasting漾抬、Gibbs sampling
    通過(guò)采樣估計(jì),更精確常遂,計(jì)算時(shí)間較長(zhǎng)
  • Variational Inference
    deterministic solution纳令,精度較低,計(jì)算時(shí)間少
  • Laplace Approximation
    deterministic克胳,精度很低平绩,計(jì)算很快
    這里重新回顧一下問(wèn)題,我們想要估計(jì)p(z|x), 需要計(jì)算p(x),因?yàn)閜(z|x)=p(x,z)/p(x)
    ,這里p(x)需要通過(guò)計(jì)算積分漠另,通常是計(jì)算不出來(lái)的捏雌,所以我們想通過(guò)一個(gè)分布q(z)來(lái)近似計(jì)算p(z|x)。然后我們利用KL Divergence來(lái)使得q(z)逼近p(z|x),最后我們得到了個(gè)公式KL[q(z)||p(z|x)]-KL[q(z)||p(z,x)]=logp(x),因?yàn)閤是給定的笆搓,等式右邊不變性湿,我們可以改變的只有q(z),目標(biāo)為讓第一項(xiàng)變小满败,因?yàn)橛?jì)算不了條件概率肤频,最小化KL[q(z)||p(z|x)]等價(jià)于最大化-KL[q(z)||p(z,x)],也就是我們的lower bound算墨,這里沒(méi)有條件概率宵荒!

    結(jié)論為了找到p(z|x),variational inference通過(guò)找一個(gè)q(z)來(lái)最大化lower bound L
    到此終于說(shuō)清楚了為什么要用variational inference,以及他是怎么做的米同!但是骇扇,找到這個(gè)q(z),仍然是一個(gè)難題面粮,variational inference的作者好像也沒(méi)有很好的路子少孝。。熬苍。稍走。
  1. Variational Inference

    作者提出了一個(gè)可以簡(jiǎn)化lower bound的方法袁翁,這里不得不寫(xiě)點(diǎn)公式了
    1
    2
    3

    沒(méi)想到寫(xiě)了這么多,還沒(méi)開(kāi)始VAE婿脸,那就下次吧粱胜,上面的公式只是variational inference的求解過(guò)程,其實(shí)不重要狐树,因?yàn)閂AE焙压,有自己的技巧。抑钟。涯曲。。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末在塔,一起剝皮案震驚了整個(gè)濱河市幻件,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌蛔溃,老刑警劉巖绰沥,帶你破解...
    沈念sama閱讀 216,402評(píng)論 6 499
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異贺待,居然都是意外死亡徽曲,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,377評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門(mén)狠持,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)疟位,“玉大人,你說(shuō)我怎么就攤上這事喘垂√鹂蹋” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 162,483評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵正勒,是天一觀(guān)的道長(zhǎng)得院。 經(jīng)常有香客問(wèn)我,道長(zhǎng)章贞,這世上最難降的妖魔是什么祥绞? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,165評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮鸭限,結(jié)果婚禮上蜕径,老公的妹妹穿的比我還像新娘。我一直安慰自己败京,他們只是感情好兜喻,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,176評(píng)論 6 388
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著赡麦,像睡著了一般朴皆。 火紅的嫁衣襯著肌膚如雪帕识。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 51,146評(píng)論 1 297
  • 那天遂铡,我揣著相機(jī)與錄音肮疗,去河邊找鬼。 笑死扒接,一個(gè)胖子當(dāng)著我的面吹牛伪货,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播珠增,決...
    沈念sama閱讀 40,032評(píng)論 3 417
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼超歌,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼砍艾!你這毒婦竟也來(lái)了蒂教?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 38,896評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤脆荷,失蹤者是張志新(化名)和其女友劉穎凝垛,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體蜓谋,經(jīng)...
    沈念sama閱讀 45,311評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡梦皮,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,536評(píng)論 2 332
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了桃焕。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片剑肯。...
    茶點(diǎn)故事閱讀 39,696評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖观堂,靈堂內(nèi)的尸體忽然破棺而出让网,到底是詐尸還是另有隱情,我是刑警寧澤师痕,帶...
    沈念sama閱讀 35,413評(píng)論 5 343
  • 正文 年R本政府宣布溃睹,位于F島的核電站,受9級(jí)特大地震影響胰坟,放射性物質(zhì)發(fā)生泄漏因篇。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,008評(píng)論 3 325
  • 文/蒙蒙 一笔横、第九天 我趴在偏房一處隱蔽的房頂上張望竞滓。 院中可真熱鬧,春花似錦吹缔、人聲如沸商佑。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,659評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)莉御。三九已至撇吞,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間礁叔,已是汗流浹背牍颈。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,815評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留琅关,地道東北人煮岁。 一個(gè)月前我還...
    沈念sama閱讀 47,698評(píng)論 2 368
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像涣易,于是被迫代替她去往敵國(guó)和親画机。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,592評(píng)論 2 353

推薦閱讀更多精彩內(nèi)容