梵高眼中的世界(一)實(shí)時(shí)圖像風(fēng)格轉(zhuǎn)換簡介

本文目錄:

  • Introduction
  • Related work
  • Methods
  • Gram 矩陣
  • Batch Normalization

Introduction

不久前麻削,一個(gè)名叫Prisma的APP在微博和朋友圈火了起來。Prisma是個(gè)能夠?qū)D像風(fēng)格轉(zhuǎn)換為藝術(shù)風(fēng)格的APP嗽仪,它能夠?qū)崿F(xiàn)如下轉(zhuǎn)換:

Prisma

除了引起大眾的好奇心外,業(yè)內(nèi)人士也紛紛猜測Prisma是如何做到實(shí)現(xiàn)快速的圖像風(fēng)格轉(zhuǎn)換肿嘲。此前晋南,在Gatys的論文<Image Style Transfer Using Convolutional Neural Networks>中嵌削,實(shí)現(xiàn)一張圖片的圖像風(fēng)格轉(zhuǎn)換需要較長時(shí)間磷雇。

在文中我將講解Prisma是如何實(shí)現(xiàn)實(shí)時(shí)風(fēng)格轉(zhuǎn)換的偿警。本文內(nèi)容基于Fei Fei Li團(tuán)隊(duì)的<Perceptual Losses for Real-Time Style Transfer
and Super-Resolution>一文。

系列文章目錄如下:

  • 梵高眼中的世界(一)實(shí)時(shí)圖像風(fēng)格轉(zhuǎn)換簡介
  • 梵高眼中的世界(二)基于perceptual損失的網(wǎng)絡(luò)
  • 梵高眼中的世界(三)實(shí)現(xiàn)與改進(jìn)

Related work

在進(jìn)行圖像風(fēng)格轉(zhuǎn)換時(shí)唯笙,我們需要一張風(fēng)格圖像style image和一張內(nèi)容圖像content image螟蒸。我們構(gòu)造一個(gè)網(wǎng)絡(luò)衡量生成圖像與style image以及content image的loss盒使,再通過訓(xùn)練減小loss得到最終圖像。

在Gatys的方法中七嫌,他使用了如下圖所示的方法:

Gatys' method

上圖最左邊是風(fēng)格圖像少办,梵高的《星夜》;最右邊是內(nèi)容圖像诵原。
算法步驟如下:

  1. 生成了一張白噪聲圖像作為初始圖像英妓。

  2. 將風(fēng)格圖像,內(nèi)容圖像绍赛,初始圖像分別通過一個(gè)預(yù)訓(xùn)練的VGG-19網(wǎng)絡(luò)鞋拟,得到某些層的輸出。這里的“某些層”是經(jīng)過實(shí)驗(yàn)得出的惹资,是使得輸出圖像最佳的層數(shù)。

  3. 計(jì)算內(nèi)容損失函數(shù):

    內(nèi)容損失函數(shù)

    其中Pl_ij是原始圖像在第l層位置j與第i個(gè)filter卷積后的輸出航闺,F(xiàn)l_ij是相應(yīng)的生成圖像的輸出褪测。

計(jì)算風(fēng)格損失函數(shù):

單層

多層累加

風(fēng)格損失函數(shù)與圖像有些不同,在這里我們不直接使用某些層卷積后的輸出潦刃,而是計(jì)算輸出的Gram矩陣侮措,再用于上式風(fēng)格損失的計(jì)算:

Gram matrix

5.計(jì)算總損失

Total loss

此時(shí)我們可以通過梯度下降算法對初始化的白噪聲圖像進(jìn)行訓(xùn)練,得到最終的風(fēng)格轉(zhuǎn)換圖像乖杠。
Gatys的算法缺點(diǎn)是一次只能訓(xùn)練出一張圖分扎。我們希望得到一個(gè)前饋的神經(jīng)網(wǎng)絡(luò),對于每一張內(nèi)容圖像胧洒,只需要通過這個(gè)前饋神經(jīng)網(wǎng)絡(luò)畏吓,就能快速得到風(fēng)格轉(zhuǎn)換圖像。

Methods

在這里只對Gram matrix以及Batch Normalization進(jìn)行講解卫漫,具體實(shí)現(xiàn)細(xì)節(jié)請閱讀原文菲饼。

Gram matrix

Gram matrix 計(jì)算如下:

Gram matrix

上式的意思為,G^l_i,j意味著第l層特征圖i和j的內(nèi)積列赎。同理可表示為:

Gram matrix

在論文中宏悦,作者用高維的特征圖相關(guān)性來表示圖像風(fēng)格。上式矩陣的對角線表示每一個(gè)特征圖自身的信息包吝,其余元素表示了不同特征圖之間的信息饼煞。

Gram matrix的tensorflow實(shí)現(xiàn)如下:

def gram_matrix(x):
    '''
    Args:
        x: Tensor with shape [batch size, length, width, channels]
    Return:
        Tensor with shape [channels, channels]
    '''
    bs, l, w, c = x.get_shape()
    size = l*w*c
    x = tf.reshape(x, (bs, l*w, c))
    x_t = tf.transpose(x, perm=[0,2,1])
    return tf.matmul(x_t, x)/size

Batch Normalization

Batch Normalization 最早由Google在ICML2015的論文<Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift>提出。
其算法如下:

Batch Normalization Algorithm

這個(gè)算法看上去有點(diǎn)復(fù)雜诗越,但直觀上很好理解:
對于一個(gè)mini-batch里面的值x_i砖瞧,我們計(jì)算平均值 μ和方差σ。對于每一個(gè)x_i掺喻,我們對其進(jìn)行z-score歸一化芭届,得到平均值為0储矩,標(biāo)準(zhǔn)差為1的數(shù)據(jù)。式子中的ε是一個(gè)很小的偏差值褂乍,防止出現(xiàn)除以0的情況持隧。實(shí)現(xiàn)中可以取ε=1e-3。在對數(shù)據(jù)進(jìn)行歸一化后逃片,BN算法再進(jìn)行“scale and shift”屡拨,將數(shù)據(jù)還原成原來的輸入。
Batch Normalization是為了解決Internal Covariate Shift問題而提出褥实。

Explanation

Batch Normalization在Tensorflow下的實(shí)現(xiàn):

from tensorflow.contrib.layers import batch_norm
def batch_norm_layer(x, is_training, scope):
    bn_train = batch_norm(x, decay=0.999, center=True, scale=True,
    updates_collections=None,
    is_training=True,
    reuse=None,
    trainable=True,
    scope=scope)

    bn_test = batch_norm(x, decay=0.999, center=True, scale=True,
    updates_collections=None,
    is_training=False,
    reuse=True, 
    trainable=True,
    scope=scope)

    bn = tf.cond(is_training, lambda: bn_train, lambda: bn_test)
    return bn

注意其中is_training是一個(gè)placeholder呀狼。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市损离,隨后出現(xiàn)的幾起案子哥艇,更是在濱河造成了極大的恐慌,老刑警劉巖僻澎,帶你破解...
    沈念sama閱讀 217,657評論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件貌踏,死亡現(xiàn)場離奇詭異,居然都是意外死亡窟勃,警方通過查閱死者的電腦和手機(jī)祖乳,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,889評論 3 394
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來秉氧,“玉大人眷昆,你說我怎么就攤上這事≈剑” “怎么了亚斋?”我有些...
    開封第一講書人閱讀 164,057評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長攘滩。 經(jīng)常有香客問我伞访,道長,這世上最難降的妖魔是什么轰驳? 我笑而不...
    開封第一講書人閱讀 58,509評論 1 293
  • 正文 為了忘掉前任厚掷,我火速辦了婚禮,結(jié)果婚禮上级解,老公的妹妹穿的比我還像新娘冒黑。我一直安慰自己,他們只是感情好勤哗,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,562評論 6 392
  • 文/花漫 我一把揭開白布抡爹。 她就那樣靜靜地躺著,像睡著了一般芒划。 火紅的嫁衣襯著肌膚如雪冬竟。 梳的紋絲不亂的頭發(fā)上欧穴,一...
    開封第一講書人閱讀 51,443評論 1 302
  • 那天,我揣著相機(jī)與錄音泵殴,去河邊找鬼涮帘。 笑死,一個(gè)胖子當(dāng)著我的面吹牛笑诅,可吹牛的內(nèi)容都是我干的调缨。 我是一名探鬼主播,決...
    沈念sama閱讀 40,251評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼吆你,長吁一口氣:“原來是場噩夢啊……” “哼弦叶!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起妇多,我...
    開封第一講書人閱讀 39,129評論 0 276
  • 序言:老撾萬榮一對情侶失蹤伤哺,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后者祖,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體默责,經(jīng)...
    沈念sama閱讀 45,561評論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,779評論 3 335
  • 正文 我和宋清朗相戀三年咸包,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片杖虾。...
    茶點(diǎn)故事閱讀 39,902評論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡烂瘫,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出奇适,到底是詐尸還是另有隱情坟比,我是刑警寧澤,帶...
    沈念sama閱讀 35,621評論 5 345
  • 正文 年R本政府宣布嚷往,位于F島的核電站葛账,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏皮仁。R本人自食惡果不足惜籍琳,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,220評論 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望贷祈。 院中可真熱鬧趋急,春花似錦、人聲如沸势誊。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,838評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽粟耻。三九已至查近,卻和暖如春眉踱,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背霜威。 一陣腳步聲響...
    開封第一講書人閱讀 32,971評論 1 269
  • 我被黑心中介騙來泰國打工谈喳, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人侥祭。 一個(gè)月前我還...
    沈念sama閱讀 48,025評論 2 370
  • 正文 我出身青樓叁执,卻偏偏與公主長得像,于是被迫代替她去往敵國和親矮冬。 傳聞我的和親對象是個(gè)殘疾皇子谈宛,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,843評論 2 354

推薦閱讀更多精彩內(nèi)容