暫無公開代碼
這篇文章是做什么的:跨模態(tài)MR圖像合成
輸入:單張圖像
是否需要數(shù)據(jù)配準:需要
是基于2D還是3D: 3D
---文章的motivation---
磁共振(Magnetic resonance?MR)成像是可設(shè)置為在人體組織之間提供不同的對比度航背。通過設(shè)置不同的掃描參數(shù)淋硝,每種MR都反映了掃描的身體部位的獨特視覺特征皆刺,每個模態(tài)顯示獨特的軟組織對比度垃它,有利于后續(xù)的多角度分析。為了利用多種成像方式的互補信息,跨模態(tài)圖像合成近年來引起了越來越多的研究興趣。現(xiàn)有的方法大多只關(guān)注像素/體素方向的強度差異,而忽略了圖像內(nèi)容結(jié)構(gòu)的紋理細節(jié)铜秆,影響了合成圖像的質(zhì)量。本文中提出了用于跨模態(tài)MR圖像合成的邊緣感知生成對抗網(wǎng)絡(luò) edge-aware generative adversarial networks(Ea-GANs)讶迁。具體地說本鸣,本文集成了邊緣信息鸽粉,它反映了圖像內(nèi)容的紋理結(jié)構(gòu),并描述了圖像中不同對象的邊界。針對不同的學習策略近顷,本文提出了兩個框架鞋喇,generator-induced?Ea-GAN(gEa-GAN)和discriminator-induced Ea-GAN (dEa-GAN)窃页。gEa-GAN通過其生成器整合邊緣信息啤覆,而dEa-GAN則通過生成器和鑒別器進一步整合邊緣信息,以便邊緣相似性也能被逆向?qū)W習宅楞。此外针姿,gEa-GAN是基于3D的,并利用層次特征捕獲上下文信息厌衙。實驗結(jié)果表明距淫,所提出的Ea-GAN,尤其是dEa-GAN婶希,在定性和定量方面都優(yōu)于多種最新跨模態(tài)MR圖像合成方法榕暇。此外,dEa-GAN還展示了其他圖像合成任務(wù)的通用性喻杈。
---方法發(fā)展過程---
基于學習的合成方法訓練一個非線性模型拐揭,該模型將每個源模態(tài)patch映射到目標模態(tài)中具有相同位置的對應(yīng)patch中心的像素/體素。例如奕塑,Huynh等人訓練了一個結(jié)構(gòu)化的隨機森林模型從MRI圖像估計CT圖像[18];Wang等人提出了一種半監(jiān)督三重字典學習方法家肯,用于從低劑量PET圖像預測標準劑量PET圖像[19]龄砰;Ye等人通過基于patch搜索的跨模態(tài)MR圖像合成[8]。所有這些基于patch的方法都存在一個局限性,即忽略了同一圖像中patch之間的重要空間關(guān)系换棚,導致合成圖像的對比度不一致式镐。
為了緩解這個問題,在[9]中通過多分辨率patch回歸額外捕獲全局空間信息固蚤,用于跨模態(tài)圖像合成娘汞。然而,上述方法[8]夕玩、[9]你弦、[18]、[19]中使用的手工制作的特征在描述圖像中復雜的上下文細節(jié)方面具有有限的能力燎孟,這反過來會影響合成質(zhì)量禽作。此外,在這些方法中揩页,基于patch的估計通常應(yīng)用于每個單獨的體素旷偿,并且整個圖像的最終估計由大量高度重疊的patch確定。因此爆侣,這種方法通常會導致合成圖像的過度平滑萍程,并且會產(chǎn)生巨大的計算成本。
為了解決上述問題兔仰,基于深度學習的模型茫负,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)和完全卷積網(wǎng)絡(luò)(FCN),已被用于自動學習具有更好描述能力的特征[20]斋陪,[21]朽褪。此外,研究人員最近發(fā)現(xiàn)无虚,與基于小patch的方法相比缔赠,使用全圖像或基于大patch的分析可以更好地了解像素/體素之間的隱式依賴關(guān)系,并且計算成本更低[22]友题,[23]嗤堰。沿著這條路線,已經(jīng)提出了端到端深度學習模型來合成[7]中的整個MR圖像和[24]和[25]中的整個CT圖像度宦。
此外踢匣,條件生成對抗網(wǎng)絡(luò)(cGAN)[26]最近在通用圖像合成[27]–[29]中取得了較好的結(jié)果「瓿基本上离唬,cGAN模型由兩個模塊組成,一個用于合成圖像的生成器(例如划鸽,傳統(tǒng)的基于CNN的圖像模型)和一個用于將合成圖像與真相區(qū)分開來的鑒別器输莺。這兩個模塊相互競爭以實現(xiàn)納什均衡(Nash equilibrium)戚哎。最近,基于cGAN的圖像合成模型也成功應(yīng)用于醫(yī)學圖像嫂用,如視網(wǎng)膜圖像(retinal images)[30]–[32]型凳、CT圖像[33]–[35]、PET圖像[36]嘱函、[37]甘畅、MR圖像[38]–[46]、超聲圖像[47]和內(nèi)窺鏡圖像(endoscopy images)[48]往弓。
這些方法大多用于二維圖像合成疏唾。對于三維醫(yī)學成像數(shù)據(jù),這些方法獨立地估計每個軸向切片(axial slice)亮航,然后將它們連接起來形成目標三維圖像荸实。這樣,合成3D圖像的冠狀面和矢狀面切片由來自軸平面的單獨估計線形成缴淋,因此可能顯示出嚴重的不連續(xù)性( the coronal and sagittal slices of a synthesized 3D image are formed by the separately estimated lines from the axial planes, and therefore may show strong discontinuities)准给。為了緩解切片不連續(xù)性問題,在[37]重抖、[38]和[46]中提出了基于3D的cGAN模型露氮。然而,與大多數(shù)2D cGAN模型類似钟沛,[37]和[38]中基于3D的模型遵循[27]中的工作畔规,以簡單地最小化合成圖像和真實圖像之間的像素/體素差異。這忽略了圖像中的結(jié)構(gòu)內(nèi)容恨统,例如對象的紋理或形狀叁扫,從而導致合成圖像不太清晰。[46]中基于3D的模型對真實圖像和合成圖像之間的梯度相似性施加了額外的約束畜埋,以便增強合成圖像的清晰度莫绣。
本文提出了邊緣感知生成對抗網(wǎng)絡(luò)(Ea-GANs),以進一步克服大多數(shù)現(xiàn)有cGAN醫(yī)學圖像合成模型中的切片不連續(xù)性和合成模糊的問題悠鞍。本文方法是基于3D的对室,它們同時提取體素強度和圖像結(jié)構(gòu)信息以便于合成。本文的創(chuàng)新之處和貢獻總結(jié)如下咖祭。
1) 為了緩解小patch和切片上的非相干估計問題掩宜,模型提供了基于3D的估計,并使用cGAN在全局水平上進行跨模態(tài)合成么翰。它減輕了現(xiàn)有2D cGAN模型遇到的跨切片的不連續(xù)合成牺汤,并在更大范圍內(nèi)捕獲圖像上下文,以便高效合成高質(zhì)量圖像浩嫌。
2) 單純增強體素強度相似度不足以進行圖像合成慧瘤,因此提出了保留邊緣信息以提高合成質(zhì)量戴已。
3) 為了整合邊緣信息,根據(jù)不同的學習策略提出了兩種不同的Ea-GAN锅减,即gEa-GAN和dEa-GAN。在gEa-GAN中伐坏,邊緣信息被合并到生成器的目標函數(shù)中怔匣,使合成圖像與真實圖像有相似的edge map。在dEa-GAN算法中桦沉,邊緣信息被融合到生成器和鑒別器中每瞒。這樣邊緣信息也將被逆向?qū)W習,這將進一步提高合成性能纯露。
4) 本文方法與[46]中基于梯度損失的方法有很大不同剿骨。與直接使用梯度信息相比,Sobel算子提供的邊緣信息對噪聲不太敏感埠褪,Sobel濾波器將較高的權(quán)重分配給其較近的鄰居浓利,將較低的權(quán)重分配給其較遠的鄰居,這無法通過直接利用圖像梯度來實現(xiàn)钞速。[46]中的梯度信息僅用于生成器的目標函數(shù)贷掖,而不涉及像dEa-GAN那樣的對抗性學習。
5) Ea-GANs分別在包含腦損傷和顱骨(brain lesions and skulls)的兩組MR圖像數(shù)據(jù)集上進行了驗證渴语,還測試了dEa-GAN的2D變體在多個通用2D圖像合成任務(wù)上的性能苹威。
---方法---
A. Ea-GANs
當病變(lesions)包含在MR圖像中時,邊緣信息有助于區(qū)分病變和正常組織驾凶,并有助于更好地描繪異常區(qū)域的輪廓牙甫,例如腦MR圖像中的膠質(zhì)瘤腫瘤(Gliomas tumors)[53](如圖1的放大部分所示)。
使用常用的Sobel算子計算edge map调违,并且可以很容易地為反向傳播計算其導數(shù)(derivative)窟哺。
如圖2所示,使用三個Sobel濾波器Fi翰萨、Fj和Fk卷積圖像A以分別生成與沿i脏答、j和k方向的強度梯度相對應(yīng)的三個edge map。這三個edge map通過以下等式合并為最終edge map
基于利用edge map的不同策略亩鬼,提出了兩種框架殖告,即gEa-GAN和dEa-GAN(如圖3所示)。每個由三個模塊組成雳锋,一個生成器G黄绩、一個鑒別器D和一個Sobel邊緣檢測器S。
源模態(tài)圖像x和目標模態(tài)圖像y在具有不同對比度的同一對象上掃描玷过。所提出的gEa-GAN的G旨在合成像圖像G(x)這樣的目標模態(tài)爽丹,該圖像可以通過對抗損失訓練來愚弄其鑒別器D筑煮。此外,通過G應(yīng)用L1-norm懲罰約束真實圖像和合成圖像之間的差異以及由Sobel邊緣檢測器S提取的edge maps之間的差異粤蝎。在合成過程中真仲,體素強度相似性和邊緣相似性都得到了加強。因此初澎,其生成器G的目標定義如下:
gEa-GAN通過其圖像合成生成器執(zhí)行體素強度相似性和邊緣相似性秸应。然而,由于邊緣項(edge term)僅出現(xiàn)在生成器側(cè)碑宴,因此鑒別器不感知邊緣信息软啼。受生成器和鑒別器之間的對抗性學習機制的啟發(fā),進一步提出了一個dEa-GAN框架延柠,生成器和鑒別器都可以從合成圖像及其edge maps中獲益祸挪。因此,鑒別器還能夠利用邊緣細節(jié)來區(qū)分真實圖像和合成圖像贞间,這反過來強制生成器合成的更好的邊緣細節(jié)贿条。
生成器G根據(jù)以下目標,使用對抗性損失榜跌、體素強度差損失和邊緣差損失進行訓練:
與gEa-GAN模型相比闪唆,通過鑒別器D的輸出,邊映射S(G(x))也隱式地出現(xiàn)在等式8的第一項中钓葫。
可以看出悄蕾,鑒別器通過添加edge map S(G(x))或S(y)將三元組作為其輸入。對于由x础浮、G(x)和S(G(x))組成的合成三元組帆调,標簽為零;對于由x豆同,y番刊,S(y)組成的真實三元組,標簽為1影锈。鑒別器試圖區(qū)分這兩種類型的三元組芹务。
該dEa-GAN模型的最終目標是:
B. DetailedArchitectures
由于有限的GPU內(nèi)存和所需的訓練批量,因此使用大重疊塊(128×128×128)而不是整個圖像來訓練Ea-GAN模型鸭廷,這可以提供足夠數(shù)量的樣本來訓練一個好的模型枣抱。
1) 生成器結(jié)構(gòu):U-net作為一種基于CNN的模型,在文獻[22]中被提出用于分析整個圖像或大圖像塊辆床。它從輸入中獲取全局上下文信息佳晶,并確保輸出的空間連續(xù)性。U-net體系結(jié)構(gòu)的典型特征是收縮和擴展路徑之間有多個跳躍連接讼载。使用這種結(jié)構(gòu)轿秧,U-net可以捕獲輸入圖像的層次特征中跌,并在訓練深度網(wǎng)絡(luò)時減輕長反向傳播造成的梯度消失[22]。它已擴展到3D變體菇篡,以更好地處理3D醫(yī)學圖像[23]漩符,[54]。本文將Ea-GANs的生成器設(shè)計為一個類似于3D U型網(wǎng)絡(luò)驱还。它的收縮路徑上有七個卷積(conv)塊陨仅,擴展路徑上有七個上卷積(up cov)塊。在每個conv塊和相應(yīng)的upconv塊之間铝侵,采用跳躍連接來有效地捕獲源模態(tài)圖像的multi- depth information。
2) 鑒別器結(jié)構(gòu):對于所提出的gEa-GAN模型触徐,其鑒別器的輸入是一對圖像咪鲜,因此鑒別器接收兩個通道的3D大patch。同時撞鹉,dEa-GAN模型處理具有三個通道的3D大patch的三元組疟丙。因此,所設(shè)計的鑒別器在兩種Ea-GAN模型(gEa-GAN和dEa-GAN)中因其第一層涉及不同數(shù)量的輸入通道而有所不同鸟雏。鑒別器由四個conv塊享郊、另一個卷積層(一個核大小為1×1×1)和一個sigmoid層組成,以類索引class index 1或0為目標孝鹊,表示真實或合成炊琉。
C. Implementation
當訓練GAN模型時,一個常見的問題是它可能變得不穩(wěn)定又活,甚至很容易模式崩潰[55]苔咪。例如,鑒別器往往比生成器更強大柳骄,其損失函數(shù)的不同下降速度反映了這一點团赏。在這種情況下,整個模型是不穩(wěn)定的耐薯,無法合成高質(zhì)量的圖像舔清。文獻[55]中討論了許多提高GAN模型訓練穩(wěn)定性的技術(shù)。在我們的工作中曲初,我們考慮兩種策略体谒。
第一種,對鑒別器使用的標簽進行平滑處理以提高區(qū)分的難度复斥,并進一步降低對抗性學習的脆弱性(vulnerability)营密。對于合成對/三元組,鑒別器的目標標簽設(shè)置為0到0.3之間的隨機數(shù)目锭,而對于真實對/三元組评汰,目標標簽設(shè)置為0.7到1.2之間的隨機值[56]纷捞。這樣鑒別器的任務(wù)變得更具挑戰(zhàn)性,以匹配生成器任務(wù)的難度被去,從而使對抗訓練變得平衡主儡。
第二種,用于更好地利用MR圖像中的邊緣信息惨缆。在訓練的初始階段糜值,提取的邊緣圖的質(zhì)量不足以有效地指導合成,而邊緣圖的質(zhì)量高度依賴于生成的圖像坯墨。為了緩解此問題寂汇,最初將超參數(shù)λ edge的值設(shè)置為較小,然后逐漸增加捣染,以調(diào)整邊緣信息的重要性骄瓣。具體地說,前20個epoch將λ edge從0線性增加到100耍攘,然后在接下來的20個epoch將其固定在100榕栏。這樣,Ea-GANs就可以有效地利用邊緣信息合成清晰逼真的目標圖像蕾各。
---實驗結(jié)果---
A. Dataset and Experimental Setting
數(shù)據(jù)集:BRATS2015數(shù)據(jù)集 和 IXI數(shù)據(jù)集
BRATS2015數(shù)據(jù)集由274名受試者組成扒磁,共有四種模式的配準MR圖像:T1加權(quán)(T1)、T1加權(quán)和對比度增強(T1c)式曲、T2加權(quán)(T2)和FLAIR妨托,圖像大小為240×240×155(體素)。在本文中检访,使用T1作為源模態(tài)始鱼,因為它是結(jié)構(gòu)成像最常用的模態(tài),并分別以FLAIR和T2作為目標模態(tài)測試兩個合成任務(wù)脆贵。為了在整個數(shù)據(jù)集上有效地評估不同的方法医清,進行了五次交叉驗證(Five-fold cross-validation)。對于每個交叉驗證分割卖氨,我們將數(shù)據(jù)集劃分為一個訓練集(由4/5個樣本組成)和一個測試集(由1/5個樣本組成)会烙。所有使用的圖像的原始強度值將線性縮放為[?1,1]在Ea GANs處理之前沒有任何額外的對比度變化。對于每幅圖像筒捺,提取八個大patch(大邪啬濉:128×128×128),并對重疊區(qū)域進行平均以形成最終估計系吭。為了增加訓練樣本的數(shù)量五嫂,使用大patch而不是整個圖像進行訓練,這與傳統(tǒng)的基于小patch的合成方法中使用的體素回歸有本質(zhì)區(qū)別。
IXI數(shù)據(jù)集包括來自五種模式(即T1沃缘、T2躯枢、PD、MRA和DTI)的578名非顱骨剝離大腦MR圖像受試者槐臀,圖像大小為256×256×N(每個受試者的N不同)锄蹂。根據(jù)[7]從PD圖像合成T2圖像。數(shù)據(jù)集通過五重交叉驗證使用水慨,因此訓練集和測試集分別由來自4/5和1/5受試者的樣本組成用于每個交叉驗證分割得糜。將原始強度值線性縮放為[?1,1]在預處理過程中沒有任何額外的對比度變化晰洒。對于每個3D圖像朝抖,沿冠狀面和矢狀面方向(trans-coronal and trans-sagittal directions)提取非重疊的大patches(大小:128×128×128)谍珊。沿著trans-axial方向槽棍,如果N<128,patch上填充?1抬驴。
對于所有合成任務(wù),進行150 epochs訓練模型缆巧。在前100 epochs布持,學習率固定為0.0002,然后在接下來的50 epochs線性衰減為零陕悬。批量大小為6的Adam用于最小化目標题暖。在訓練過程中,λl1固定為300捉超,而λ edge在前20 epochs中從0線性增加到100胧卤,然后在接下來的130 epochs中保持在100。
B. Methods in Comparison
比較方法如下:
1) Replica[9]使用手工制作的多分辨率3D patch訓練隨機森林進行合成拼岳。
2) Multimodal[7]是一種基于2D CNN的模型枝誊,用于在像素方向強度差的約束下逐層(slice by slice)合成MR圖像。
3) Pix2pix[27]是一個2D cGAN模型惜纸,它通過約束像素級強度相似性來合成整個2D圖像叶撒。
使用發(fā)布的代碼直接運行這三個模型,并遵循原始文件進行圖像預處理和模型設(shè)置耐版。兩個二維模型祠够,即 Multimodal[7]和Pix2pix[27],使用軸向切片(axial slices)進行訓練粪牲。然后古瓤,將每個對象的合成軸向切片連接起來,形成一個3D?volum。
此外落君,為了便于比較穿香,本文提出了一個3D cGAN模型,該模型具有與Pix2pix相同的目標函數(shù)[27]叽奥。該3D cGAN模型遵循與gEa-GAN和dEa-GAN相同的架構(gòu)扔水、結(jié)構(gòu)和參數(shù)設(shè)置。所有三維模型都使用大3D patch朝氓,以增加訓練樣本的數(shù)量魔市。
此外,為了驗證使用edge map優(yōu)于直接使用圖像梯度的優(yōu)勢赵哲,還構(gòu)建了一個cGAN模型待德,該模型遵循gEa-GAN和dEa-GAN的網(wǎng)絡(luò)結(jié)構(gòu),但使用了[46]中的圖像梯度差損失枫夺,而不是邊緣相似性損失将宪。該模型表示為梯度cGAN。為了平衡目標函數(shù)中的每個項橡庞,增加的圖像梯度差損失通過輸出體素的數(shù)量標準化并乘以3000较坛。
C.Evaluation Measures
PSNR用于測量對數(shù)分貝標度的估計精度。
SSIM用于衡量兩幅圖像的相似性扒最,將圖像退化視為結(jié)構(gòu)信息的感知變化丑勤。
在評估之前,將所有合成圖像和真實圖像的強度值相加1吧趣,然后除以2法竞。因此,所有圖像的強度值都在0到1之間强挫。
D. Results on BRATS2015
表一: 整個圖像(包括大腦和背景)表二:腫瘤區(qū)域
了測試dEa-GAN是否顯著優(yōu)于比較方法岔霸,進行配對t檢驗,遵循[60]–[62]俯渤。
Comparison between 2D and 3D cGAN
Comparison between 3D cGAN and the two proposed Ea-GANs
Comparison between gradient cGAN and gEa-GAN
Comparison between the two proposed Ea-GANs
Comparison between the state-of-the-art models and the two proposed Ea-GANs
所提出的算法在保留合成圖像中的關(guān)鍵病理信息( critical pathological information)方面具有較強的能力呆细,因為這些信息與邊緣相關(guān)。
E. Results on IXIDataset
F. Results on Synthesized Image Edge Maps
為了顯示所提出的算法的邊緣保持性能八匠,從合成圖像和真實圖像中提取的三種edge map侦鹏,即Sobel、Prewitt和Canny二值邊緣映射臀叙,通過表III略水、IV、V和VI中的PSNR劝萤、NMSE和SSIM進行比較渊涝。如圖所示,Ea-GANs生成最接近真實值的edge map。
G. Generic ImageSynthesis Results
為了評估本文方法的通用性和有效性跨释,將dEa GAN擴展到其2D變體2D dEa GAN胸私,并將其與Pix2pix進行比較[27]。使用了三個通用的圖像到圖像轉(zhuǎn)換基準數(shù)據(jù)集鳖谈。對于facades數(shù)據(jù)集[63]岁疼,使用400個訓練樣本和206個測試樣本進行標簽到照片的翻譯。對于maps 數(shù)據(jù)集缆娃,使用了[27]刮取(scraped)的1096張訓練圖像和1098張測試圖像捷绒,并對地圖到空中(map-to-aerial)的轉(zhuǎn)換進行了處理。對于cityscapes數(shù)據(jù)集[64]贯要,照片由城市景觀標簽合成暖侨,包含2975張訓練圖像和500張測試圖像。所有圖像預處理步驟和實驗設(shè)置均遵循[27]中的工作崇渗。
表VII驗證了保留邊緣信息對于不同的通用圖像合成任務(wù)至關(guān)重要字逗。
---討論---
目前的工作有以下局限性。
首先宅广,由于訓練圖像的數(shù)量有限葫掉,沒有使用驗證集來優(yōu)化選擇訓練參數(shù)。為了增加訓練數(shù)據(jù)的實際數(shù)量跟狱,使用大的3D patch而不是整個圖像進行訓練挖息。在未來工作中,將嘗試增加更多的樣本來選擇參數(shù)兽肤,并在3D整個圖像合成上評估本文的方法。
第二绪抛,增強邊緣相似性只是維持圖像內(nèi)容的潛在方法之一资铡。在我們目前的研究中,由于優(yōu)化的困難幢码,其他一些與圖像結(jié)構(gòu)相關(guān)的測量笤休,例如局部歸一化互相關(guān)(local normalized cross-correlation),沒有被研究症副。本文將在今后的研究中對此進行深入探討店雅。
第三,當前的MR圖像合成框架通常要求訓練樣本同時具有源模態(tài)和目標模態(tài)贞铣。然而闹啦,這種要求在許多醫(yī)學應(yīng)用中往往難以滿足,這進一步減少了可用訓練樣本的數(shù)量辕坝,并限制了用于合成的模型的性能窍奋。在未來的工作中,本文將通過學習半監(jiān)督Ea-GANs來放寬這一要求,使我們的模型更適合醫(yī)學圖像合成中的各種場景琳袄。
第四江场,本文工作證明了所提出的方法在同一數(shù)據(jù)集中進行學習的有效性。在未來窖逗,我們將嘗試利用領(lǐng)域適應(yīng)技術(shù)(domain adaptation techniques)來進一步擴展它們址否,以解決跨數(shù)據(jù)集學習問題(cross-dataset learning problems)。
---結(jié)論---
在本文中提出了兩種新的Ea-GAN端到端框架碎紊,即gEa-GAN和dEa-GAN佑附,用于從給定的源模態(tài)合成目標模態(tài)MR圖像。在合成過程中矮慕,所提出的Ea-GAN帮匾,特別是dEa-GAN,聯(lián)合體素強度相似性和邊緣相似性痴鳄,取得了比多種最先進的MR圖像合成方法更好的結(jié)果瘟斜。此外,dEa-GAN在不同的圖像合成任務(wù)中表現(xiàn)出良好的通用性痪寻。
[7] A. Chartsias, T. Joyce, M. V. Giuffrida, and S. A. Tsaftaris, “Multimodal MR synthesis via modality-invariant latent representation,” IEEE Trans. Med. Imag., vol. 37, no. 3, pp. 803–814, Mar. 2018.
[9] A. Jog, A. Carass, S. Roy, D. L. Pham, and J. L. Prince, “Random forest regression for magnetic resonance image synthesis,” Med. Image Anal., vol. 35, pp. 475–488, Jan. 2017.
[27] P. Isola, J.-Y. Zhu, T. Zhou, and A. A. Efros. (2016). “Image-to-image translation with conditional adversarial networks.” [Online]. Available: https://arxiv.org/abs/1611.07004.
[46] D. Nie et al., “Medical image synthesis with deep convolutional adversarial networks,” IEEE Trans. Biomed. Eng., vol. 65, no. 12, pp. 2720–2730, Dec. 2018.