U-Net

主要參考資料:Unet的網(wǎng)站論文

U-Net最早用作生物圖像的分割,后來(lái)在目標(biāo)檢測(cè)、圖像轉(zhuǎn)換昔搂,以及Tone Mapping ,Reverse Tone Mapping很多地方都有應(yīng)用输拇。它的一個(gè)特點(diǎn)是早期的卷積層結(jié)果和最后幾層的結(jié)果采用級(jí)聯(lián)的形式作為新的神經(jīng)網(wǎng)絡(luò)層摘符。我覺(jué)得它的過(guò)程很類(lèi)似圖像金字塔和圖像重建的過(guò)程,前面的下采樣策吠,提取出信息逛裤,后面進(jìn)行重建,區(qū)別在于這里不是像拉普拉斯金字塔重建那樣將圖像復(fù)原猴抹,這里則是生成了具有“新特性”的圖像带族。之所以叫它U-Net,是因?yàn)樗雌饋?lái)像個(gè)U形蟀给,如果考慮中間層次的級(jí)聯(lián)蝙砌,更像一把琴。

U-Net

從圖中可以看出跋理,U-Net主要由Conv+ReLu择克,maxpool,up-conv前普,conv 1x1 幾個(gè)部分構(gòu)成肚邢,那么我們首先在tensorflow里面將這幾個(gè)部分函數(shù)化。

  • conv+ReLU
def conv_relu_layer(net,numfilters,name):
    network = tf.layers.conv2d(net,
                     activation=tf.nn.relu,
                     filters= numfilters,
                     kernel_size=(3,3),
                     padding='Valid',
                     name= "{}_conv_relu".format(name))
    return network
  • maxpool
def maxpool(net,name):
    network = tf.layers.max_pooling2d(net,
                    pool_size= (2,2),
                    strides = (2,2),
                    padding = 'valid',
                    name = "{}_maxpool".format(name))
    return network
  • up_conv
def up_conv(net,numfilters,name):
    network = tf.layers.conv2d_transpose(net,
                    filters = numfilters,
                    kernel_size= (2,2),
                    strides= (2,2),
                    padding= 'valid',
                    activation= tf.nn.relu,
                    name = "{}_up_conv".format(name))
    return network
  • copy_crop
def copy_crop(skip_connect,net):
    skip_connect_shape = skip_connect.get_shape()
    net_shape = net.get_shape()
    print(net_shape[1])
    size = [-1,net_shape[1].value,net_shape[2].value,-1]
    skip_connect_crop = tf.slice(skip_connect,[0,0,0,0],size)
    concat = tf.concat([skip_connect_crop,net],axis=3)
    return concat
  • conv1x1
def conv1x1(net,numfilters,name):
    return tf.layers.conv2d(net,filters=numfilters,strides=(1,1),kernel_size=(1,1),name = "{}_conv1x1".format(name),padding='SAME')
#define input data
input  = tf.placeholder(dtype=tf.float32,shape = (64,572,572,3))


#define downsample path
network = conv_relu_layer(input,numfilters=64,name='lev1_layer1')
skip_con1 = conv_relu_layer(network,numfilters=64,name='lev1_layer2')
network = maxpool(skip_con1,'lev2_layer1')
network = conv_relu_layer(network,128,'lev2_layer2')
skip_con2 = conv_relu_layer(network,128,'lev2_layer3')
network = maxpool(skip_con2,'lev3_layer1')
network = conv_relu_layer(network,256,'lev3_layer1')
skip_con3 = conv_relu_layer(network,256,'lev3_layer2')
network = maxpool(skip_con3,'lev4_layer1')
network = conv_relu_layer(network,512,'lev4_layer2')
skip_con4 = conv_relu_layer(network,512,'lev4_layer3')
network = maxpool(skip_con4,'lev5_layer1')
network = conv_relu_layer(network,1024,'lev5_layer2')
network = conv_relu_layer(network,1024,'lev5_layer3')

#define upsample path
network = up_conv(network,512,'lev6_layer1')
network = copy_crop(skip_con4,network)
network = conv_relu_layer(network,numfilters=512,name='lev6_layer2')
network = conv_relu_layer(network,numfilters=512,name='lev6_layer3')

network = up_conv(network,256,name='lev7_layer1')
network = copy_crop(skip_con3,network)
network = conv_relu_layer(network,256,name='lev7_layer2')
network = conv_relu_layer(network,256,'lev7_layer3')


network = up_conv(network,128,name='lev8_layer1')
network = copy_crop(skip_con2,network)
network = conv_relu_layer(network,128,name='lev8_layer2')
network = conv_relu_layer(network,128,'lev8_layer3')


network = up_conv(network,64,name='lev9_layer1')
network = copy_crop(skip_con1,network)
network = conv_relu_layer(network,64,name='lev9_layer2')
network = conv_relu_layer(network,64,name='lev9_layer3')
network = conv1x1(network,2,name='lev9_layer4')

利用tensorboard可以得到如下的網(wǎng)絡(luò)架構(gòu)圖拭卿。


U-net
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末骡湖,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子记劈,更是在濱河造成了極大的恐慌勺鸦,老刑警劉巖,帶你破解...
    沈念sama閱讀 222,104評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件目木,死亡現(xiàn)場(chǎng)離奇詭異换途,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)刽射,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,816評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門(mén)军拟,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人誓禁,你說(shuō)我怎么就攤上這事懈息。” “怎么了摹恰?”我有些...
    開(kāi)封第一講書(shū)人閱讀 168,697評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵辫继,是天一觀的道長(zhǎng)怒见。 經(jīng)常有香客問(wèn)我,道長(zhǎng)姑宽,這世上最難降的妖魔是什么遣耍? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 59,836評(píng)論 1 298
  • 正文 為了忘掉前任,我火速辦了婚禮炮车,結(jié)果婚禮上舵变,老公的妹妹穿的比我還像新娘。我一直安慰自己瘦穆,他們只是感情好纪隙,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,851評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著扛或,像睡著了一般绵咱。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上告喊,一...
    開(kāi)封第一講書(shū)人閱讀 52,441評(píng)論 1 310
  • 那天麸拄,我揣著相機(jī)與錄音派昧,去河邊找鬼黔姜。 笑死,一個(gè)胖子當(dāng)著我的面吹牛蒂萎,可吹牛的內(nèi)容都是我干的秆吵。 我是一名探鬼主播,決...
    沈念sama閱讀 40,992評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼五慈,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼纳寂!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起泻拦,我...
    開(kāi)封第一講書(shū)人閱讀 39,899評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤毙芜,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后争拐,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體腋粥,經(jīng)...
    沈念sama閱讀 46,457評(píng)論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,529評(píng)論 3 341
  • 正文 我和宋清朗相戀三年架曹,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了隘冲。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,664評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡绑雄,死狀恐怖展辞,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情万牺,我是刑警寧澤罗珍,帶...
    沈念sama閱讀 36,346評(píng)論 5 350
  • 正文 年R本政府宣布洽腺,位于F島的核電站,受9級(jí)特大地震影響覆旱,放射性物質(zhì)發(fā)生泄漏已脓。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,025評(píng)論 3 334
  • 文/蒙蒙 一通殃、第九天 我趴在偏房一處隱蔽的房頂上張望度液。 院中可真熱鬧,春花似錦画舌、人聲如沸堕担。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,511評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)霹购。三九已至,卻和暖如春朋腋,著一層夾襖步出監(jiān)牢的瞬間齐疙,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,611評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工旭咽, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留贞奋,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 49,081評(píng)論 3 377
  • 正文 我出身青樓穷绵,卻偏偏與公主長(zhǎng)得像轿塔,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子仲墨,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,675評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容