在上篇Disentanglement的文獻(xiàn)總結(jié)中获茬,disentangling就是對latent variable進(jìn)行更多的約束港庄,也就是KL項(xiàng)的產(chǎn)生各種變體倔既。但是VAE還有一個重構(gòu)項(xiàng)恕曲,
更改重構(gòu)項(xiàng)
-
Hou, Xianxu, et al. "Deep feature consistent variational autoencoder." 2017 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2017.
- 這個文章將pixel level的重構(gòu),替換為 deep feature的重構(gòu)渤涌。pixel level的重構(gòu)在很多地方都確實(shí)有問題佩谣,轉(zhuǎn)換為deep feature的重構(gòu)是一種可行的思路;
-
Hou, Xianxu, et al. "Improving variational autoencoder with deep feature consistent and generative adversarial training." Neurocomputing 341 (2019): 183-194.
- 還是這位作者实蓬,把GAN加入了進(jìn)來茸俭,用判別網(wǎng)絡(luò)在deep feature上對抗訓(xùn)練。
- 作者顯然把前人在pixel上做的工作安皱,統(tǒng)統(tǒng)在deep feature 上做了一遍调鬓,效果還不錯。這對我們是個啟發(fā)酌伊,deep feature是和任務(wù)相關(guān)的腾窝,重構(gòu)deep feature當(dāng)然在理論上應(yīng)該是有更好的表現(xiàn)。
-
Zemouri, Ryad. "Semi-supervised adversarial variational autoencoder." Machine Learning and Knowledge Extraction 2.3 (2020): 361-378.
- 同樣是利用GAN+VAE的原理進(jìn)行改進(jìn)居砖。采用兩階段的訓(xùn)練方法到底有啥優(yōu)勢虹脯?
- 這種技術(shù)名稱叫做:consistency principle for deep feature.
-
Agrawal, Siddharth, and Ambedkar Dukkipati. "Deep variational inference without pixel-wise reconstruction." arXiv preprint arXiv:1611.05209 (2016).
- 這篇的名字就是說不要重構(gòu),用的NVP transformations來替換掉重構(gòu)項(xiàng)奏候。
- NVP transformation 是deep feature的一個替代方案循集。
-
Ma, Xiao, et al. "Contrastive variational model-based reinforcement learning for complex observations." arXiv e-prints (2020): arXiv-2008.
- 這篇文章是發(fā)現(xiàn)了VAE中存在互信息的描述,從而用contrastive loss替換掉了重構(gòu)項(xiàng)蔗草。
- 這里和前面的不同咒彤,前面都要間接計算
, 這篇文章是從數(shù)學(xué)上拋棄了這個重構(gòu)項(xiàng)。
小結(jié)
- pixel level的重構(gòu)項(xiàng)在無噪聲咒精,圖片內(nèi)容和任務(wù)相關(guān)性很高的時候表現(xiàn)不錯镶柱。但是在有噪聲,有干擾的情況下直接重構(gòu)并不好狠轻。
- 替換手段是多樣的奸例。確定性的轉(zhuǎn)換(deep feature)和隨機(jī)性的轉(zhuǎn)換(NVP)都是可行的替代方案。Ref. 5采用contrastive loss直接處理掉重構(gòu)也是可行。