競(jìng)賽地址:https://kits19.grand-challenge.org/
競(jìng)賽論文地址:https://arxiv.org/abs/1908.03204
一、KiTS19 Challenge基本情況
? ? ?? 每年有超過(guò)40萬(wàn)例的新發(fā)腎癌患者锉走,而手術(shù)是其最常見(jiàn)的治療方法茂缚。由于腎臟和腎臟腫瘤形態(tài)具有多樣性帮寻,關(guān)于腫瘤形態(tài)與手術(shù)結(jié)果有關(guān)的話題一直都是熱門(mén)方向弥鹦,以及開(kāi)發(fā)先進(jìn)的手術(shù)計(jì)劃技術(shù)向抢。自動(dòng)語(yǔ)義分割是完成上述技術(shù)的有效工具迄本,但形態(tài)異質(zhì)性使其成為一個(gè)難題硕淑。
? ? ? ? KiTS19挑戰(zhàn)的目標(biāo)是加速開(kāi)發(fā)可靠的腎臟和腎臟腫瘤語(yǔ)義分割方法。該挑戰(zhàn)賽已經(jīng)準(zhǔn)備了300例腎癌患者的動(dòng)脈期腹部CT數(shù)據(jù)和相應(yīng)金標(biāo)準(zhǔn)分割數(shù)據(jù)嘉赎。其中210例被用于模型訓(xùn)練和驗(yàn)證置媳,剩下90例將用于客觀模型評(píng)估。
? ? ? 與在中國(guó)深圳的MICCAI 2019一起舉辦此項(xiàng)挑戰(zhàn)公条,并邀請(qǐng)前5名比賽隊(duì)伍小組口頭介紹實(shí)現(xiàn)的方法拇囊,并合作撰寫(xiě)關(guān)于挑戰(zhàn)的期刊論文。
二靶橱、KiTS19數(shù)據(jù)格式
? ? ?? 原始圖像和金標(biāo)準(zhǔn)圖像的數(shù)據(jù)格式是NIFTI格式寥袭,形狀是(num_slices,高度关霸,寬度)传黄,num_slices對(duì)應(yīng)于軸向視圖,并且隨著切片索引的增加從上到下队寇,切片厚度范圍為1mm至5mm膘掰。
三、挑戰(zhàn)賽組隊(duì)?
? ? ? 我們隊(duì)伍兩個(gè)人英上,最終獲取名次第7名炭序,總的800多支隊(duì)伍報(bào)名啤覆,最終成功提交結(jié)果的106支隊(duì)伍苍日。
四、數(shù)據(jù)預(yù)處理
? ? ? 該競(jìng)賽腎腫瘤訓(xùn)練數(shù)據(jù)一共有210例窗声,為此劃分訓(xùn)練和測(cè)試數(shù)據(jù)集相恃,選擇0-199例來(lái)訓(xùn)練,200-209例來(lái)測(cè)試笨觅。
(1)分析腎腫瘤數(shù)據(jù)金標(biāo)準(zhǔn)的類(lèi)別信息拦耐,一共有三個(gè)類(lèi)別值:0是背景,1是腎區(qū)域见剩,2是腎腫瘤區(qū)域杀糯。
(2)分析腎腫瘤數(shù)據(jù)的大小和Spacing信息,大多數(shù)圖像大小都是512x512xthickness苍苞,只有第160例數(shù)據(jù)是796x512xthickness固翰,thickness數(shù)值從幾十到幾百狼纬,z方向上Spacing值是從1mm到5mm。
(3)分析窗寬窗位信息去除噪聲和不相關(guān)區(qū)域信息骂际。
(4)窗寬窗位設(shè)置成-200-300疗琉,將圖像x和y都縮放到512,通過(guò)插值將z方向上Spacing值從原始變成1mm歉铝。
(5)為了準(zhǔn)備3D分割腎區(qū)域盈简,需要對(duì)圖像取Patch操作,Patch大小選擇128x128x32太示,如果你的GPU顯存夠大可以設(shè)置成48或64柠贤。
一、二維分割方法的初實(shí)踐
? ? ?? 由于之前做的項(xiàng)目都是針對(duì)二維圖像的處理类缤,為此种吸,首先針對(duì)該競(jìng)賽想到的是將三維圖像分解為二維圖像,然后再利用二維分割網(wǎng)絡(luò)進(jìn)行分割呀非。
1坚俗、Vnet-FPN網(wǎng)絡(luò):
? ? ? ? (1)vnet網(wǎng)絡(luò)結(jié)構(gòu)
? ? ? ? (2)FPN網(wǎng)絡(luò)構(gòu)架
? ? ? ?? (3)Vnet-FPN網(wǎng)絡(luò)構(gòu)建
2、Vnet-FPN2d腎腫瘤分割
? ? ? 腎腫瘤分割初步嘗試:采用Vnet2d來(lái)實(shí)現(xiàn)的岸裙,圖像輸入大小是256x256猖败,在1060顯卡上跑可以設(shè)置batchsize為8,如果大家出現(xiàn)OOM錯(cuò)誤降允,請(qǐng)修改該參數(shù)恩闻,設(shè)置小一些。
3剧董、測(cè)試數(shù)據(jù)上分割結(jié)果
? ? ?? 把0-209例腎腫瘤數(shù)據(jù)全部用來(lái)訓(xùn)練幢尚,選擇80%來(lái)訓(xùn)練,20%來(lái)驗(yàn)證測(cè)試翅楼。在測(cè)試的時(shí)候尉剩,直接輸入原始圖像大小512x512。然后計(jì)算20%驗(yàn)證數(shù)據(jù)的dice值毅臊,并計(jì)算加權(quán)平均理茎,結(jié)果是0.872。結(jié)果看上去并不是那么糟糕管嬉。
? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 競(jìng)賽方法的調(diào)研
1皂林、采用GAN的方法進(jìn)行分割,首先用分割網(wǎng)絡(luò)分割出來(lái)最初的分割結(jié)果蚯撩,然后分割網(wǎng)絡(luò)的結(jié)果和原圖進(jìn)行相乘础倍,金標(biāo)準(zhǔn)標(biāo)簽和原圖進(jìn)行相乘作為判別器網(wǎng)絡(luò)的輸入,進(jìn)行對(duì)抗訓(xùn)練胎挎,最終使得分割網(wǎng)絡(luò)的結(jié)果和原圖相乘的結(jié)果能夠欺騙判別器沟启,則達(dá)到了較高的分割精度扰楼。
2中燥、采用雙Unet網(wǎng)絡(luò)進(jìn)行分割哈蝇,首先,用第一個(gè)Unet網(wǎng)絡(luò)分割出來(lái)腎裸诽,作為第二個(gè)Unet網(wǎng)絡(luò)的輸入(感興趣區(qū)域)分割出腫瘤浦辨。
3蹬竖、采用RCNN和CNN結(jié)合的方法,由于3D圖像之間如果解析為2D圖像流酬,圖像之間是有連續(xù)的币厕,類(lèi)似OCT圖像的斷層掃描,每個(gè)層之間是存在連續(xù)的芽腾,可以說(shuō)各個(gè)層之間是存在關(guān)聯(lián)的旦装,采用RCNN可以用來(lái)時(shí)間序列預(yù)測(cè),把每個(gè)階段的圖像之間的信息連接起來(lái)(比如RCNN中的記憶門(mén))摊滔,然后最終提升CNN網(wǎng)絡(luò)的分割結(jié)果阴绢。
4、采用深度監(jiān)督的學(xué)習(xí)方法艰躺。深度監(jiān)督就是在分割網(wǎng)絡(luò)的上采樣階段呻袭,每個(gè)階段(或者其中一些階段)輸入,模型形成了單輸入多輸出的結(jié)構(gòu)腺兴,在該結(jié)構(gòu)中左电,多個(gè)輸出之間形成了一種深度監(jiān)督的情形,首先页响,在上采樣階段篓足,較小分辨率層的輸入如果預(yù)測(cè)較好,也可以讓較大分辨層的預(yù)測(cè)結(jié)果就好闰蚕,從而形成了一種深度監(jiān)督的效果栈拖。
競(jìng)賽論文地址:https://arxiv.org/abs/1908.03204
? ? ? 基于多尺度監(jiān)督3D U-Net的腎臟和腫瘤分割的研究
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 摘要
? ? ? ? U-Net在各種醫(yī)學(xué)圖像分割挑戰(zhàn)中取得了巨大成功。當(dāng)使用最優(yōu)超參數(shù)時(shí)陪腌,各種具有花哨功能的新架構(gòu)可能在某些數(shù)據(jù)集中成功辱魁,但是它們的推廣總是無(wú)法保證烟瞧。在這里诗鸭,我們專(zhuān)注于基本的U-Net架構(gòu),并為KiTS19挑戰(zhàn)中的分段任務(wù)提出了一個(gè)多尺度監(jiān)督3D U-Net参滴。為了提高性能强岸,我們的工作可歸納為三個(gè)方面:首先,我們?cè)诮獯a器路徑中使用多尺度監(jiān)控砾赔,這可以鼓勵(lì)網(wǎng)絡(luò)預(yù)測(cè)來(lái)自深層的正確結(jié)果;第二蝌箍,為了減輕腎臟和腫瘤樣本失衡的不良影響青灼,我們采用了指數(shù)對(duì)數(shù)損失;第三,基于連通域的后處理方法用于去除明顯錯(cuò)誤的分割區(qū)域妓盲。在已發(fā)表的KiTS19訓(xùn)練數(shù)據(jù)集(共210名患者)中杂拨,我們將42名患者分為測(cè)試數(shù)據(jù)集,最終獲得了腎臟和腫瘤的DICE評(píng)分分別為0.969和0.805悯衬。在挑戰(zhàn)中弹沽,我們最終在106支隊(duì)伍中排名第7位,復(fù)合Dice為0.8961筋粗,即腎臟Dice為0.9741策橘,腫瘤Dice為0.8181。 ??
關(guān)鍵詞:醫(yī)學(xué)圖像分割娜亿,3D U-Net丽已,多尺度監(jiān)督。
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 1买决、介紹
? ? ?? 自動(dòng)語(yǔ)義分割為探索腫瘤形態(tài)學(xué)與其相應(yīng)的手術(shù)結(jié)果之間的關(guān)系以及開(kāi)發(fā)先進(jìn)的手術(shù)技術(shù)提供了有前景的工具[1,2,3]沛婴,但由于形態(tài)異質(zhì)性,實(shí)現(xiàn)良好的性能仍然具有挑戰(zhàn)性督赤。
? ? ?? KiTS19挑戰(zhàn)[4]旨在加速推進(jìn)腎臟和腎臟腫瘤語(yǔ)義分割方法的發(fā)展瘸味。 它對(duì)300名不同腎癌患者進(jìn)行了CT掃描,并發(fā)布了210例用于模型訓(xùn)練和驗(yàn)證够挂,另外90例患者掃描將被保留作為測(cè)試數(shù)據(jù)集旁仿。 基于腎臟和腫瘤分割的平均Dice系數(shù)來(lái)測(cè)量所提交模型的最終性能。
? ? ? ? 深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)已經(jīng)被認(rèn)為是用于各種圖像分類(lèi)和分割任務(wù)的最新方法孽糖。 具有編碼器 - 解碼器架構(gòu)的U-Net [5]是經(jīng)常用于醫(yī)學(xué)圖像分割的網(wǎng)絡(luò)枯冈。 由于在生物醫(yī)學(xué)數(shù)據(jù)分析中3D數(shù)據(jù)比2D圖像更豐富,為了充分利用諸如CT和MRI的3D圖像的空間信息办悟,提出了3D卷積并且認(rèn)為更加有效尘奏。 Fabian [6]基于3D U-Net進(jìn)行了微小的修改[7],并在許多醫(yī)學(xué)圖像分割挑戰(zhàn)中獲得了冠軍或頂級(jí)排名病蛉,這證明優(yōu)化的U-Net具有足夠的潛力炫加,比許多其他新架構(gòu)表現(xiàn)更好。
? ? ? ? 受[6]的啟發(fā)铺然,我們還丟棄了一些關(guān)于架構(gòu)的常見(jiàn)技巧俗孝,例如殘差塊[8],密集塊[9]魄健,注意機(jī)制[10]赋铝,特征金字塔網(wǎng)絡(luò)[11]和特征重新校準(zhǔn)[12]。 從我們的觀點(diǎn)來(lái)看沽瘦,醫(yī)學(xué)圖像遠(yuǎn)不如自然圖像多樣化革骨,因此它們不需要太深的卷積層或太多的連接农尖。 只有5層的基本U-Net足以表示或?qū)W習(xí)用于像素分類(lèi)的功能。
? ? ?? 根據(jù)這樣的建議良哲,我們的工作重點(diǎn)是更好地訓(xùn)練3D U-Net并更有效地利用有限的訓(xùn)練數(shù)據(jù)集盛卡。 由于最終的全分辨率預(yù)測(cè)是從較深的低分辨率層上采樣的,因此保證深層預(yù)測(cè)的準(zhǔn)確性非常重要筑凫。 因此窟扑,我們?cè)O(shè)計(jì)了多尺度監(jiān)督3D U-Net,以鼓勵(lì)網(wǎng)絡(luò)不僅在最后一層預(yù)測(cè)漏健,而且在每個(gè)分辨率級(jí)別預(yù)測(cè)嚎货,從而提高了最終層的性能。 為了減輕不平衡類(lèi)數(shù)據(jù)帶來(lái)的負(fù)面影響蔫浆,我們使用增強(qiáng)的焦點(diǎn)丟失[13]殖属,指數(shù)對(duì)數(shù)損失[14]。 最后瓦盛,我們的后處理將去除預(yù)測(cè)失誤的散落的腎臟或沒(méi)有腎臟的腫瘤(即誤分割區(qū)域)洗显。
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 2 方法
? ? ?? 在這一部分中,我們將介紹我們的方法細(xì)節(jié)原环,不僅包括網(wǎng)絡(luò)架構(gòu)挠唆,還包括預(yù)處理,數(shù)據(jù)增強(qiáng)嘱吗,訓(xùn)練過(guò)程玄组,后期處理,因?yàn)檫@些對(duì)于實(shí)現(xiàn)提升3D U-Net分割的性能也非常重要谒麦。
2.1 預(yù)處理和數(shù)據(jù)擴(kuò)充
? ? ?? 為了消除可能來(lái)自某些金屬物的異常強(qiáng)度值俄讹,我們將CT圖像的強(qiáng)度值剪切為0.5和99.5百分位數(shù)。 然后按照慣例绕德,我們通過(guò)典型的權(quán)重初始化方法將數(shù)據(jù)標(biāo)準(zhǔn)化為全局前景均值和標(biāo)準(zhǔn)差患膛。 需要強(qiáng)調(diào)的是,三維數(shù)據(jù)的各向異性會(huì)破壞三維卷積的優(yōu)勢(shì)耻蛇,因?yàn)樗荒軐W(xué)習(xí)具有相同感受野的不同體素空間數(shù)據(jù)的統(tǒng)一表示踪蹬。 因此,如果不是臣咖,我們將數(shù)據(jù)重新采樣到相同的體素空間中跃捣。
? ? ? 手動(dòng)注釋醫(yī)學(xué)圖像總是很繁瑣,因此標(biāo)記的數(shù)據(jù)集體積通常是有限的亡哄。 我們采用強(qiáng)大的數(shù)據(jù)增強(qiáng)來(lái)避免模型過(guò)度擬合枝缔,包括隨機(jī)旋轉(zhuǎn),隨機(jī)縮放蚊惯,隨機(jī)彈性變形愿卸,伽馬校正增強(qiáng)和鏡像。
2.2 網(wǎng)絡(luò)架構(gòu)
? ? ?? U-Net [5]是一種經(jīng)典的編碼器 - 解碼器分割網(wǎng)絡(luò)截型,近年來(lái)引起了很多關(guān)注趴荸。 編碼器路徑與典型的分類(lèi)網(wǎng)絡(luò)類(lèi)似,逐層提取更高級(jí)的語(yǔ)義特征宦焦。 然后发钝,解碼器路徑恢復(fù)每個(gè)體素的定位,并利用特征信息對(duì)其進(jìn)行分類(lèi)波闹。 為了使用嵌入在編碼器中的位置信息酝豪,在同一級(jí)中的層之間構(gòu)建直接連接。
? ? ??我們基于3D U-Net設(shè)計(jì)了我們的網(wǎng)絡(luò)[7]精堕。 該框架如圖1所示孵淘。這種多尺度監(jiān)督網(wǎng)絡(luò)采用解碼器路徑的不同層進(jìn)行預(yù)測(cè),不像經(jīng)典的3D U-Net僅從最后一層預(yù)測(cè)歹篓。 這些段輸出將與相應(yīng)的分辨率標(biāo)簽進(jìn)行比較瘫证,然后用于計(jì)算最終損失函數(shù)。 這種監(jiān)督方法主要鼓勵(lì)網(wǎng)絡(luò)從將被上采樣的低分辨率特征圖正確地預(yù)測(cè)為全分辨率特征圖庄撮。
2.3 訓(xùn)練步驟
? ? ?? 受實(shí)驗(yàn)內(nèi)GPU內(nèi)存的限制厅翔,我們選擇大小為192'192'48乖坠,并使用2個(gè)GPU中的數(shù)據(jù)并行(Tesla,32GB)將批量大小設(shè)置為8刀闷。 該大小是隨機(jī)抽樣的熊泵,我們將一輪訓(xùn)練為250次迭代。 我們使用Adam作為我們的優(yōu)化器甸昏。 學(xué)習(xí)率初始化為3×10**(-4)顽分,如果連續(xù)30輪的訓(xùn)練損失沒(méi)有進(jìn)一步改善,則學(xué)習(xí)率將下降0.2倍施蜜。
? ? ? 對(duì)于CT圖像中的腎臟和腫瘤分割卒蘸,背景樣本標(biāo)簽遠(yuǎn)遠(yuǎn)超過(guò)腎臟和腫瘤標(biāo)簽。 而且,由于其形態(tài)異質(zhì)性缸沃,腫瘤更難以分類(lèi)恰起。 為了緩解這種不平衡,我們使用了指數(shù)對(duì)數(shù)損失[14]趾牧。 這種損失強(qiáng)調(diào)了難以處理的樣本的影響检盼,并通過(guò)使損失非線性來(lái)賦予它們更多的權(quán)重。 同時(shí)翘单,我們賦予背景吨枉,腎臟和腫瘤不同的權(quán)重。
? ? ? ? 我們將Soft Dice和Cross Entropy結(jié)合起來(lái)訓(xùn)練我們的模型哄芜。 損失函數(shù)公式的可歸納如下:
2.4? 推理和后處理
?? 當(dāng)預(yù)測(cè)病例時(shí)貌亭,我們使用滑動(dòng)窗口方法,并且預(yù)測(cè)之間存在重疊认臊。 為了提高準(zhǔn)確性圃庭,將原始數(shù)據(jù)和鏡像數(shù)據(jù)的預(yù)測(cè)結(jié)合起來(lái)。
? ? ?? 一些常見(jiàn)的人類(lèi)知識(shí)可以幫助進(jìn)一步提高性能美尸。 例如冤议,一名患者最多有兩個(gè)腎臟,腫瘤應(yīng)附著腎臟师坎。 因此恕酸,我們?cè)O(shè)計(jì)了一個(gè)簡(jiǎn)單的基于連通組件的后處理方法來(lái)消除明顯錯(cuò)誤的預(yù)測(cè)。 效果如圖2所示胯陋。
? ? ? ? ? ? ? ? ? ? ? ? 3? 實(shí)驗(yàn)和結(jié)果
? ? ?? 發(fā)布了210個(gè)患者CT掃描以訓(xùn)練模型盟萨。 我們將其中的42個(gè)劃分為測(cè)試數(shù)據(jù)集凉翻,并使用其他圖像來(lái)訓(xùn)練我們的模型。 在2個(gè)GPU(Tesla 32GB)上運(yùn)行大約5天捻激。 訓(xùn)練期間的損失如圖3所示制轰。
? ? ? 我們的分割輸出和箱線圖的樣本如圖4和圖5所示肤无。對(duì)于腎臟和腫瘤,測(cè)試數(shù)據(jù)集的平均Dice系數(shù)分別為0.969和0.805侧巨。 我們?cè)谀I臟方面取得了相當(dāng)有希望的表現(xiàn)舅锄,但是有些腫瘤太小而不能很好地分割鞭达。
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 4 結(jié)論與討論
? ? ?? 在本文中司忱,我們演示了我們的模型及其在KiTS19數(shù)據(jù)集中的表現(xiàn)。我們的方法是基于經(jīng)典的3D U-Net構(gòu)建的畴蹭,并且通過(guò)多尺度監(jiān)督坦仍,指數(shù)對(duì)數(shù)損失和基于連通分量的后處理來(lái)增強(qiáng)。在已發(fā)表的數(shù)據(jù)中進(jìn)行測(cè)試叨襟,我們的方法分別獲得了腎臟和腫瘤的平均Dice系數(shù)為0.969和0.805繁扎。在最終競(jìng)賽方提供的90例樣本中,我們得到的復(fù)合Dice系數(shù)(腎臟Dice和腫瘤Dice取平均)為0.8961糊闽,腎臟Dice為0.9741梳玫,腫瘤Dice為0.8181。
? ? ?? 由于我們遵循Fabian [6]的精神右犹,我們?cè)谶@里沒(méi)有使用太多的架構(gòu)技巧提澎,而是專(zhuān)注于訓(xùn)練程序。 具有嚴(yán)重形態(tài)異質(zhì)性的腫瘤總是很難分割念链。 在未來(lái)盼忌,我們計(jì)劃嘗試兩階段腫瘤分割方法,即我們應(yīng)首先提出感興趣區(qū)域掂墓,然后使用可變形卷積而不是傳統(tǒng)卷積來(lái)適應(yīng)腫瘤特征谦纱。
? ? ? ? ? ? ? ? ? ? References
1. Kutikov, A., & Uzzo, R. G. (2009). The R.E.N.A.L. Nephrometry Score: A Comprehensive Standardized System for Quantitating Renal Tumor Size, Location and Depth. Journal of Urology. https://doi.org/10.1016/j.juro.2009.05.035
2. Ficarra, V., Novara, G., Secco, S., Macchi, V., Porzionato, A., De Caro, R., & Artibani, W. (2009). Preoperative Aspects and Dimensions Used for an Anatomical (PADUA) Classification of Renal Tumours in Patients who are Candidates for Nephron-Sparing Surgery. European Urology. https://doi.org/10.1016/j.eururo.2009.07.040
3. Taha, A., Lo, P., Li, J., & Zhao, T. (2018). Kid-Net: Convolution Networks for Kidney Vessels Segmentation from CT-Volumes. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics). https://doi.org/10.1007/978-3-030-00937-3_53
4. Heller, N., Sathianathen, N., Kalapara, A., Walczak, E., Moore, K., Kaluzniak, H., … Weight, C. (2019). The KiTS19 Challenge Data: 300 Kidney Tumor Cases with Clinical Context, CT Semantic Segmentations, and Surgical Outcomes. 1–13. Retrieved from http://arxiv.org/abs/1904.00445
5. Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 9351, 234–241. https://doi.org/10.1007/978-3-319-24574-4_28
6. Isensee, F., Petersen, J., Kohl, S. A. A., J?ger, P. F., & Maier-Hein, K. H. (2019). nnU-Net: Breaking the Spell on Successful Medical Image Segmentation. 1, 1–8. Retrieved from http://arxiv.org/abs/1904.08128
7. Cicek, O., Abdulkadir, A., Lienkamp, S. S., Brox, T., & Ronneberger, O. (2016). 3D U-Net?: Learning Dense Volumetric. Medical Image Computing and Computer-Assisted Intervention - MICCAI 2016, 424–432. https://doi.org/10.1007/978-3-319-46723-8 8. Milletari, F. (2016). V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation. 2016 Fourth International Conference on 3D Vision (3DV), 565–571. https://doi.org/10.1109/3DV.2016.79
9. Li, X., Chen, H., Qi, X., Dou, Q., Fu, C. W., & Heng, P. A. (2018). H-DenseUNet: Hybrid Densely Connected UNet for Liver and Tumor Segmentation from CT Volumes. IEEE Transactions on Medical Imaging. https://doi.org/10.1109/TMI.2018.2845918
10. Oktay, O., Schlemper, J., Folgoc, L. Le, Lee, M., Heinrich, M., Misawa, K., … Rueckert, D. (2018). Attention U-Net: Learning Where to Look for the Pancreas. (Midl). Retrieved from http://arxiv.org/abs/1804.03999
11. Lin, T.-Y., Dollár, P., Girshick, R., He, K., Hariharan, B., & Belongie, S. (n.d.). Feature Pyramid Networks for Object Detection. Retrieved from https://arxiv.org/pdf/1612.03144.pdf
12. Roy, A. G., Navab, N., & Wachinger, C. (2018). Concurrent spatial and channel ‘squeeze & excitation’ in fully convolutional networks. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics). https://doi.org/10.1007/978-3-030-00928-1_48
13. Lin, T. Y., Goyal, P., Girshick, R., He, K., & Dollar, P. (2017). Focal Loss for Dense Object Detection. Proceedings of the IEEE International Conference on Computer Vision, 2017October, 2999–3007. https://doi.org/10.1109/ICCV.2017.324
14. Wong, K. C. L., Moradi, M., Tang, H., & Syeda-Mahmood, T. (2018). 3D segmentation with exponential logarithmic loss for highly unbalanced object sizes. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 11072 LNCS, 612–619. https://doi.org/10.1007/978-3-03000931-1_70