2018年的這一次論文復(fù)現(xiàn)活動(dòng)民珍,我們收獲了5份高質(zhì)量作品败去,在假期即將到來之際放航,和大家一起重溫。
2019年圆裕,我們將繼續(xù)鼓勵(lì)開發(fā)者們復(fù)現(xiàn)經(jīng)典論文广鳍,促進(jìn)AI行業(yè)的良性循環(huán)。
論文復(fù)現(xiàn)文章鏈接及簡介:
PyraNet(2篇)
經(jīng)典論文復(fù)現(xiàn)|手把手帶你復(fù)現(xiàn)ICCV 2017經(jīng)典論文—PyraNet
經(jīng)典論文復(fù)現(xiàn) | PyraNet:基于特征金字塔網(wǎng)絡(luò)的人體姿態(tài)估計(jì)
Learning Feature Pyramids for Human Pose Estimation?是發(fā)表在 ICCV 2017 的工作吓妆,論文提出了一個(gè)新的特征金字塔模塊赊时,在卷積網(wǎng)絡(luò)中學(xué)習(xí)特征金字塔,并修正了現(xiàn)有的網(wǎng)絡(luò)參數(shù)初始方法行拢,在人體姿態(tài)估計(jì)和圖像分類中都取得了很好的效果祖秒。
[鏈接]
經(jīng)典論文復(fù)現(xiàn)|手把手帶你復(fù)現(xiàn)ICCV 2017經(jīng)典論文—PyraNet
作者丨Dicint
學(xué)校丨北京信息科技大學(xué)
研究方向丨分割、推薦
經(jīng)典論文復(fù)現(xiàn) | PyraNet:基于特征金字塔網(wǎng)絡(luò)的人體姿態(tài)估計(jì)
作者丨黃澤宇
學(xué)校丨深圳大學(xué)
研究方向丨計(jì)算機(jī)圖形學(xué)舟奠、深度學(xué)習(xí)
圖像超分辨率重建
經(jīng)典論文復(fù)現(xiàn) | 基于深度學(xué)習(xí)的圖像超分辨率重建
單圖像超分辨率重構(gòu)(SR)可以從一張較小的圖像生成一張高分辨率的圖像竭缝。顯然,這種恢復(fù)的結(jié)果是不唯一的沼瘫√е剑可以這樣直觀地理解:遠(yuǎn)遠(yuǎn)看到一個(gè)模糊的身影,看不清臉耿戚,既可以認(rèn)為對面走來的是個(gè)男生湿故,也可以認(rèn)為這是個(gè)女生。那么晓锻,當(dāng)我想象對面人的長相時(shí)歌焦,會(huì)如何腦補(bǔ)呢躁锁?
這就依賴于我們的先驗(yàn)知識(shí)。假如我認(rèn)為,一個(gè)穿著裙子的人肯定是個(gè)女生,而對面那個(gè)人穿著裙子膀懈,所以我認(rèn)為那是個(gè)女生,腦補(bǔ)了一張女神臉疑苫。然而满钟,如果我知道穿裙子的人不一定是女生夭织,還可能是女裝大佬。迎面走來那個(gè)人瘦瘦高高全庸,所以我認(rèn)為十有八九是個(gè)男孩子拌消,就會(huì)腦補(bǔ)一個(gè)……
也就是說,不同的先驗(yàn)知識(shí),會(huì)指向不同的結(jié)果纵穿。我們的任務(wù)何乎,就是學(xué)習(xí)這些先驗(yàn)知識(shí)句惯。目前效果最好的辦法都是基于樣本的(example-based)。
[鏈接]
經(jīng)典論文復(fù)現(xiàn) | 基于深度學(xué)習(xí)的圖像超分辨率重建
作者丨Molly
學(xué)校丨北京航天航空大學(xué)
研究方向丨計(jì)算機(jī)視覺
LSGAN
經(jīng)典論文復(fù)現(xiàn) | LSGAN:最小二乘生成對抗網(wǎng)絡(luò)
近幾年來 GAN 是十分火熱的支救,由 Goodfellow 在 14 年發(fā)表論文Generative Adversarial Nets[1]?開山之作以來宗弯,生成式對抗網(wǎng)絡(luò)一直都備受機(jī)器學(xué)習(xí)領(lǐng)域的關(guān)注,這種兩人零和博弈的思想十分有趣搂妻,充分體現(xiàn)了數(shù)學(xué)的美感。從 GAN 到WGAN[2]?的優(yōu)化辕棚,再到本文介紹的 LSGANs欲主,再到最近很火的BigGAN?[3],可以說生成式對抗網(wǎng)絡(luò)的魅力無窮逝嚎,而且它的用處也是非常奇妙扁瓢,如今還被用在例如無負(fù)樣本的情況下如何訓(xùn)練分類器,例如AnoGAN?[4]补君。
LSGANs 這篇經(jīng)典的論文主要工作是把交叉熵?fù)p失函數(shù)換做了最小二乘損失函數(shù)引几,這樣做作者認(rèn)為改善了傳統(tǒng) GAN 的兩個(gè)問題,即傳統(tǒng) GAN 生成的圖片質(zhì)量不高挽铁,而且訓(xùn)練過程十分不穩(wěn)定伟桅。
[鏈接]
經(jīng)典論文復(fù)現(xiàn) | LSGAN:最小二乘生成對抗網(wǎng)絡(luò)
作者丨文永亮
學(xué)校丨華南理工大學(xué)
研究方向丨目標(biāo)檢測、圖像生成
InfoGAN?
經(jīng)典論文復(fù)現(xiàn) | InfoGAN:一種無監(jiān)督生成方法
生成對抗網(wǎng)絡(luò)(Generative Adversarial Nets)是一類新興的生成模型叽掘,由兩部分組成:一部分是判別模型(discriminator)D(·)楣铁,用來判別輸入數(shù)據(jù)是真實(shí)數(shù)據(jù)還是生成出來的數(shù)據(jù);另一部分是是生成模型(generator)G(·)更扁,由輸入的噪聲生成目標(biāo)數(shù)據(jù)盖腕。
然而當(dāng)我們遇到存在潛在的類別差別而沒有標(biāo)簽數(shù)據(jù),要使 GAN 能夠在這類數(shù)據(jù)上擁有更好表現(xiàn)浓镜,我們就需要一類能夠無監(jiān)督地辨別出這類潛在標(biāo)簽的數(shù)據(jù)溃列,InfoGAN 就給出了一個(gè)較好的解決方案。
[鏈接]
經(jīng)典論文復(fù)現(xiàn) | InfoGAN:一種無監(jiān)督生成方法
作者丨黃濤?
學(xué)校丨中山大學(xué)數(shù)學(xué)學(xué)院18級(jí)本科生
研究方向丨圖像識(shí)別膛薛、VQA听隐、生成模型和自編碼器