題目:卷積神經(jīng)網(wǎng)絡(luò)中的每一個過濾器提取一個特定的特征
- 文章地址:《Every Filter Extracts A Specific Texture In Convolutional Neural Networks》 arXiv.1608.04170
- Github鏈接:https://github.com/xzqjack/FeatureMapInversion
(轉(zhuǎn)載請注明出處:http://www.reibang.com/p/20b854ffab02 ,謝謝!)
Abstract
摘要: 許多作品都集中在通過產(chǎn)生圖像(激活一些特定神經(jīng)元)來可視化并理解卷積神經(jīng)網(wǎng)絡(luò)(CNN)的內(nèi)在機(jī)制碗誉,這稱為深度可視化。然而茫死,目前依舊尚不能直觀的了解到過濾器從圖像中提取了些什么粹庞。在本文中,我們提出了一種改進(jìn)的代碼的反演算法浆熔,稱為特征映射反演蚓土,以助了解CNN的過濾功能宏侍。我們發(fā)現(xiàn),每一個過濾器提取一個特定的紋理蜀漆。從更高的層提取出的紋理包含更多的顏色和更復(fù)雜的結(jié)構(gòu)谅河。我們還表明,圖像的風(fēng)格可以是這些紋理基元的組合确丢。兩個方法被提出用于重新隨機(jī)且有意圖的分配特征映射绷耍。然后,我們逆轉(zhuǎn)了修改后的代碼鲜侥,并生成不同風(fēng)格的圖像褂始。有了這些結(jié)果,我們提供了一個解釋:為什么特征圖譜組成的梯度矩陣(Gram Matrix)可以代表圖像風(fēng)格描函。
關(guān)鍵詞: 特征圖譜
崎苗, 有趣的濾鏡
,代碼反轉(zhuǎn)
舀寓,原始紋理
胆数,風(fēng)格化
一.簡介
卷積神經(jīng)網(wǎng)絡(luò)在許多模式識別任務(wù)上達(dá)成了驚人的成就,特別是大規(guī)模的圖片識別問題[2,3,4,5]互墓,然而必尼,在一方面,CNN依舊很容易犯錯篡撵。[6]表明判莉,給圖片添加人類無法識別的對抗噪聲能導(dǎo)致CNN對圖像的判定產(chǎn)生重大失誤豆挽。[7]展示了一些相關(guān)的結(jié)果:我們很容易能通過進(jìn)化算法來生成一些人類無法分辨的圖片,但一些先進(jìn)的CNN可以分辨圖片到特定的類別(99.99%的置信度)券盅,另一方面帮哈,現(xiàn)在仍不是很清楚CNN到底是怎樣從訓(xùn)練集中學(xué)習(xí)適合的特征,以及一個特征圖譜到底代表著什么[8,9]渗饮。這種對CNN機(jī)制的不清晰敦促著最新的研究,將CNN可視化的研究宿刮,也稱為深度可視化[10,11,12,13,14,15,16]互站。深度可視化目標(biāo)是通過激活特定神經(jīng)元來生成一個圖片,解釋CNN的內(nèi)部機(jī)制僵缺,這可以給研究者們提供有意義胡桃、有幫助的見解,促進(jìn)大家設(shè)計出更有效的網(wǎng)絡(luò)結(jié)構(gòu)磕潮。
這里有一些能用來理解CNN的深度可視化的技巧翠胰。也許最簡單的方法就是展示一個確定層的響應(yīng),或者一些確定的特征映射自脯。然而這些特征圖譜僅提供了有限和直觀的信息(針對濾鏡和映射)之景,例如,雖然他是可能找到一些針對特定對象響應(yīng)的過濾器膏潮。比如[19]中的锻狗,這種方法是啟發(fā)式的,而不是通用的焕参。
一個主要的深度可視化技術(shù)是激活最大化[10]轻纪,它找出一個圖像,激活一些特定神經(jīng)元叠纷,最深度的解釋這些神經(jīng)元對應(yīng)的特征響應(yīng)刻帚。[20]展示了通過alexnet在最后一層做激活最大化學(xué)習(xí)到的對象概念。[21]生成了相似的結(jié)果涩嚣,通過把激活最大化應(yīng)用在單個特征圖譜上崇众,[22]生成了一些有吸引力的圖片,通過加強(qiáng)輸入圖像的在高層次的激活神經(jīng)元航厚,和低層次一樣校摩。這稱為“深度的夢”。然而生成的圖像是粗糙的阶淘,所以一系列子工作也集中在提升生成圖片的質(zhì)量(通過增加天然的先驗(yàn)例如L2正則化[20]衙吩,全局方差范數(shù)[13])偏差[22],高斯模糊[21]溪窒,數(shù)據(jù)驅(qū)動的補(bǔ)丁[13] 坤塞,除此之外冯勉,還有[24]也揭示了輸入圖片用不同的神經(jīng)元學(xué)習(xí)出不同類型的特征。
另一個主要的深度可視化技術(shù)叫做編碼反轉(zhuǎn)[23]摹芙,它產(chǎn)生的圖像的激活代碼和目標(biāo)激活碼在細(xì)節(jié)層非常相似灼狰。它揭示了哪些特征是從輸入圖像中用濾鏡提取出來的。代碼反轉(zhuǎn)可以通過訓(xùn)練另一個神經(jīng)網(wǎng)絡(luò)浮禾,直接預(yù)測重建圖片[25]交胚,或通過迭代優(yōu)化一個初始噪聲圖像[26],或者把CNN的項目特征激活回輸入像素的空間(用反卷積[18])這些反演方法也可以擴(kuò)展到代碼的統(tǒng)計屬性盈电。[27]設(shè)想了特征映射矩陣Gram matrix并發(fā)現(xiàn)它代表了圖像的紋理蝴簇。[1,28,29]利用gram matrix去做了圖像風(fēng)格化的工作。和激活最大化相比匆帚,代碼反轉(zhuǎn)更直觀的揭示了從給定圖像中用過濾器提取的確定的特征熬词。
深度可視化方面,許多以前的工作揭示了一些有價值的揭示(對于不同層中的單個神經(jīng)元[20,7]吸重,一個特征映射[21]互拾,或者代碼[22]),卷積神經(jīng)網(wǎng)絡(luò)不再是一個完完全全的黑盒子嚎幸。然而颜矿,我們最好的知識,仍然無法做到可視化每一個過濾器到底抓住了圖像中的哪些因素嫉晶。深入了解過濾器可以幫助改進(jìn)現(xiàn)有神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)或衡。
在這篇文章中我們提出了“特征映射反演”FMI,來解決前文提到的那些問題车遂。對于一個有趣的濾波器封断,F(xiàn)MI同時增強(qiáng)了相關(guān)的特征映射,并削弱了其他的特征映射舶担。然后將經(jīng)典的代碼反演算法應(yīng)用于修改后的代碼坡疼,并生成反演圖像。我們的實(shí)驗(yàn)結(jié)果表明衣陶,在CNN每個濾波器提取特定的紋理柄瑰。更高層次的紋理包含更多的顏色和更復(fù)雜的結(jié)構(gòu)(圖3)。另外剪况,我們發(fā)現(xiàn)一個圖像的風(fēng)格是多層紋理基元的組合教沾,兩個方法被提出反轉(zhuǎn)代碼用來生成不同風(fēng)格的圖片,主要來說译断,我們改變代碼授翻,重新隨機(jī)分配各特征映射的和,根據(jù)目標(biāo)代碼的目的來做。有了這些結(jié)果堪唐,我們提出了一個解釋:為什么特征映射梯度矩陣能夠代表圖像的風(fēng)格巡语。因?yàn)槊恳粋€濾鏡都提取出一個特定搞得紋理,各個特征映射相結(jié)合時的權(quán)重決定了圖像的風(fēng)格淮菠。就像特征映射沿通道軸的特征映射的綜合男公,梯度矩陣也領(lǐng)導(dǎo)著各個特征映射在生成圖片上的能力。
我們的實(shí)驗(yàn)建立在開源的深度學(xué)習(xí)框架mxnet[30]合陵,可以在https://github.com/xzqjack/FeatureMapInversion上看枢赔。
二. 方法
2.1.特征映射反演
在這一節(jié)中,我們用FMI來回答這個問題:“CNN中一個濾鏡到底從輸入圖像中獲取了什么”拥知,這里給出一個輸入圖片X(shape = 3 x H x W)
踏拜,一個訓(xùn)練過的CNN:φ 把輸入圖像編碼成φ(x)(C x M x N)
編碼反轉(zhuǎn)方法旨在找到一個新的圖像X*,編碼 **φ(X*) **和 φ(X) 要非常相似举庶。就像圖1中所示的执隧,如果選擇一個層(如VGG-19里的relu5_1)編碼是一個3維Tensor揩抡。共有512個特征映射户侥,每個映射的尺寸都是14 x 14,為了可視化的觀察到第 l 個過濾器提取出了什么東西峦嗤,我們應(yīng)該加大第 l 層的特征映射到一定程度蕊唐,并削弱其他的。在這篇論文中烁设,我們把第L個特征映射設(shè)置成了沿通道軸線特征映射的和替梨,其他的都設(shè)置成了0。最后装黑,我們將采用經(jīng)典的編碼反轉(zhuǎn)[23]應(yīng)用給修改過的編碼 ψ(φ(X),l)
這兒φ(X)_k,m,n表示第k個特征映射在位置(m,n)處激活副瀑。ψ(φ(X),l)增強(qiáng)了φ(X)的第 l 個特征映射,削弱了其他的恋谭。
2.2 修改編碼反轉(zhuǎn)
我們知道每一個過濾器能提取一個特定紋理糠睡,我們假設(shè)一個圖片的風(fēng)格可以被認(rèn)為是多種紋理基元的結(jié)合。如果是這樣疚颊,我們可以結(jié)合紋理基元狈孔,通過隨機(jī)且有意圖的修改特征映射的分布。那么如果我們把反轉(zhuǎn)編碼應(yīng)用到修改過的編碼中材义, 我們會得到不同種的 風(fēng)格圖均抽。
隨機(jī)修改的方法保證了神經(jīng)元激活的狀態(tài)(激活或者非激活)不變,但重新分配了每個特征映射的綜合其掂。我們最先生成了一個隨機(jī)向量v
然后我們重新分配了每個特征映射向量v的權(quán)重油挥。修改后的編碼為:
我們把修改后的編碼當(dāng)成目標(biāo),保證圖片的內(nèi)容不變但是風(fēng)格多樣化的生成一張圖片,如圖4:
進(jìn)一步喘漏,我們修改每個特征映射的比例护蝶,使得每個特征映射的和與目標(biāo)代碼相似。主要來說翩迈,假設(shè)我們有兩個輸入圖片持灰,內(nèi)容圖Xc(3 x Hc x Wc)
風(fēng)格圖Xs(3 x Hs x Ws)
。Xc 和 Xs 在某一層的特征映射被重構(gòu)結(jié)構(gòu)φ(Xc)=(C x Mc x Nc )和 φ(Xs)=(C x Ms x Ns )负饲。我們用內(nèi)容編碼φ(Xc)作為內(nèi)容約束堤魁,特征映射在通道軸上求和φ(Xs)作為風(fēng)格約束。最后返十,我們產(chǎn)生一張風(fēng)格圖妥泉,通過下式:
內(nèi)容和風(fēng)格有著不同的權(quán)重
三.實(shí)驗(yàn)
3.1實(shí)驗(yàn)設(shè)置
我們把我們的實(shí)驗(yàn)建立在一個很有名的CNN網(wǎng)絡(luò)上,名叫VGG19洞坑,這個網(wǎng)絡(luò)被訓(xùn)練用來識別1000多種分類的物體盲链,用于1.2億圖像ILSVRC 2014 Imagenet數(shù)據(jù)集。它包含了16個卷積層迟杂,16個relu層刽沾,5個池化層,總共5504個濾鏡排拷。所有的過濾器都是3x3的侧漓。我們不用任何的全連接層。在實(shí)驗(yàn)的過程中监氢,我們把α設(shè)成10 β設(shè)成1布蔗,利用金門大橋和某大學(xué)作為內(nèi)容圖,在所有情況下結(jié)果如圖2
3.2 特征映射反轉(zhuǎn)
我們在圖三中展示了有質(zhì)量的FMI結(jié)果浪腐,最上的反演結(jié)果來自輸入圖像金門大橋纵揍,下面的反演來自于某大學(xué),從上到下每行顯示了特征映射反演(分別來自于5個不同的卷幾層议街,relu1_2
,relu2_2
,relu3_2
,relu4_2
,relu5_2
)在每行中泽谨,從左到右的列展示了第1~5個特征的反演結(jié)果。
數(shù)值結(jié)果表明傍睹,每一個過濾器提取一個特定的紋理隔盛。像圖3所示的,不同的特征映射在不同的層的反演結(jié)果有不同的紋理拾稳,而相應(yīng)的反演結(jié)果(a)和(b)有相同的紋理吮炕,包括顏色和基本結(jié)構(gòu)。低層次的FMI比如relu1_2
和relu2_2
访得,生成圖像的色彩比較單調(diào)龙亲,局部結(jié)構(gòu)簡單陕凹。隨著層數(shù)的增加如relu4
,relu5
鳄炉,色彩變得豐富杜耙,局部結(jié)構(gòu)變得更加復(fù)雜。這個現(xiàn)象是合理的拂盯,因?yàn)楦邔拥奶卣饔成淇梢员灰暈榍懊嫣卣饔成涞姆蔷€性組合佑女。例如,在低層的特征映射代表低層的語義屬性谈竿,如邊緣和角团驱,然后高層的過濾器組裝不同的邊緣模式和角模式,組成更復(fù)雜的紋理空凸。
3.3生成多種風(fēng)格的圖片
由于每個特征圖譜代表一個特定的紋理嚎花,我們可以改變圖像的風(fēng)格,通過隨機(jī)修改層次紋理的組合權(quán)重呀洲。圖4顯示了定性隨機(jī)修改的編碼反演結(jié)果紊选。我們隨機(jī)分配每個特征映射的總和(在relu1_1
,relu2 1
道逗,relu3_1
兵罢,relu4_1
和relu5_1
。對于每一層憔辫,我們產(chǎn)生兩個隨機(jī)反演結(jié)果趣些。隨機(jī)變化改變了激活神經(jīng)元的激活程度仿荆,但未激活的保持了不變贰您。同一列的兩個生成的圖像有不同的紋理。與輸入圖像相比拢操,顏色在低層relu1_2
锦亦, relu2_2
有主要區(qū)別,結(jié)構(gòu)是在1層relu4_1
令境,relu5_1
有主要區(qū)別杠园,這支撐了我們的發(fā)現(xiàn)。
我們發(fā)現(xiàn)這很有趣舔庶,在高層次的反演結(jié)果中抛蚁,包含更少的內(nèi)容細(xì)節(jié)和更多的紋理。原因是惕橙,紋理重復(fù)塊在高層次中包含了更多的復(fù)雜結(jié)構(gòu)瞧甩。然后內(nèi)容圖像是由許多獨(dú)特的子結(jié)構(gòu)組成,當(dāng)子圖像的結(jié)構(gòu)與紋理不同時弥鹦,部分內(nèi)容信息被毀壞肚逸。最后整圖的內(nèi)容信息變得稀缺爷辙,許多復(fù)雜紋理出現(xiàn)。
此外朦促,我們還實(shí)驗(yàn)了有目的地修改編碼轉(zhuǎn)化(PMCI)膝晾。圖5中所生成的圖像結(jié)合目標(biāo)內(nèi)容圖像的編碼和按一定分布的目標(biāo)樣式圖的特征映射。特別是务冕,我們選擇4個風(fēng)格的圖像做實(shí)驗(yàn):A Self Portrait with Necklace of Thorns, Femme nue assise, The Starry Night and Der Schrei.
我們用relu2_2層的編碼當(dāng)作內(nèi)容項約束血当, 沿通道軸線relu1_1,和relu2_1禀忆,relu3_1歹颓,relu4_1,relu5_1作為風(fēng)格的約束條件油湖。第一列顯示目標(biāo)樣式圖像巍扛。第3,4列顯示PMCI結(jié)果。我們還展示了Gatys等人風(fēng)格化的圖像[1]在第2和4列乏德。
PMCI生成和風(fēng)格目標(biāo)相似的圖像撤奸。我們可以直觀的發(fā)現(xiàn)生成的圖像在同一行上的風(fēng)格很相似。這種相似性表明喊括,特征映射的組合權(quán)重表示圖像風(fēng)格胧瓜。因此,我們可以根據(jù)特征映射的能量分布郑什,確定兩個圖像是不是相同的風(fēng)格府喳,有了這些結(jié)果,我們提供了一些見解蘑拯,以理解為什么特征映射的梯度矩陣[1]可以代表圖像風(fēng)格钝满。像沿通道軸的特征映射的總和,梯度矩陣也引導(dǎo)所生成的圖像中每一個特征映射的占比申窘。
四. 結(jié)論
我們提出了一個方法來可視化一個過濾器抓住了輸入圖像的哪個特征弯蚜,通過反轉(zhuǎn)感興趣的特征映射。通過這個技術(shù)剃法,我們證明了每一個過濾器提取一個特定的紋理碎捺。在更高層次上的反演結(jié)果包含更多的顏色和更復(fù)雜的結(jié)構(gòu)。我們提出了兩種方法來生成不同風(fēng)格的圖像贷洲。實(shí)驗(yàn)結(jié)果支持了我們的假設(shè):一個圖像的風(fēng)格本質(zhì)上是從CNN中獲取的紋理基元的一種組合收厨。除了產(chǎn)生不同風(fēng)格的圖像,我們還提供了一個解釋:為什么特征映射組成的梯度矩陣[1]可以當(dāng)作一個圖像的風(fēng)格表示优构。由于每一個過濾器提取一個特定的紋理诵叁,特征映射組合時的權(quán)重決定的圖像的風(fēng)格。像沿通道軸的特征映射的總和俩块,梯度矩陣也引導(dǎo)著生成圖像的每一個特征映射的分布黎休。
References
[1] L.A. Gatys, A.S. Ecker, and M. Bethge, “Image style transfer using convolutional neural networks,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2016.
[2] C. Szegedy, W. Liu, Y.Q. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going deeper with convolutions,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp. 1–9.
[3] A. Krizhevsky, I. Sutskever, and G.E. Hinton, “Imagenet classification with deep convolutional neural networks,” in Advances in Neural Information Processing Systems (NIPS), 2012, pp. 1097–1105.
[4] K. Simonyan and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” CoRR, vol. abs/1409.1556, 2014.
[5] K.M. He, X.Y. Zhang, S.Q. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2016.
[6] I.J. Goodfellow, J. Shlens, and C. Szegedy, “Explaining and harnessing adversarial examples,” International Conference on Learning Representations (ICLR), 2015.
[7] A. Nguyen, J. Yosinski, and J. Clune, “Deep neural networks are easily fooled: High confidence predictions for unrecognizable images,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2015, pp.427–436.
[8] J. Yosinski, C. Jeff, Y. Bengio, and H. Lipson, “How transferable are features in deep neural networks?,” in Advances in Neural Information Processing Systems (NIPS), 2014, pp. 3320–3328.
[9] Y.X. Li, J. Yosinski, J. Clune, H. Lipson, and J. Hopcroft, “Convergent learning: Do different neural networks learn the same representations?,” in Advances in Neural Information Processing Systems (NIPS), 2015, pp. 196–212.
[10] Dumitru Erhan, Yoshua Bengio, Aaron Courville, and Pascal Vincent, “Visualizing higher-layer features of a deep network,” University of Montreal, vol. 1341, 2009.
[11] C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, and R. Fergus, “Intriguing properties of neural networks,” International Conference on Learning Representations (ICLR), 2014.
[12] J.T. Springenberg, A. Dosovitskiy, T. Brox, and M. Riedmiller, “Striving for simplicity: The all convolutional net,” International Conference on Learning Representations (ICLR), 2015.
[13] D.L. Wei, B.L. Zhou, A. Torrabla, and W. Freeman, “Understanding intra-class knowledge inside cnn,” arXiv preprint arXiv:1507.02379, 2015.
[14] K. Lenc and A. Vedaldi, “Understanding image representations by measuring their equivariance and equivalence,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp. 991–999.
[15] A. Karpathy, J. Johnson, and F.F. Li, “Visualizing and understanding recurrent networks,” International Conference on Learning Representations (ICLR), 2016.
[16] M. Liu, J.X. Shi, Z. Li, C.X. Li, J. Zhu, and S.X. Liu, “Towards better analysis of deep convolutional neural networks,” arXiv preprint arXiv:1604.07043, 2016.
[17] W.L. Shang, K. Sohn, D. Almeida, and H. Lee, “Understanding and improving convolutional neural networks via concatenated rectified linear units,” International Conference on Machine Learning (ICML), 2016.
[18] M.D. Zeiler and R. Fergus, “Visualizing and understanding convolutional networks,” in European Conference on Computer Vision (ECCV). Springer, 2014, pp. 818–833.
[19] Y. Sun, X.GWang, and X.O. Tang, “Deeply learned face representations are sparse, selective, and robust,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp. 2892–2900.
[20] K. Simonyan, A. Vedaldi, and A. Zisserman, “Deep inside convolutional networks: Visualising image classification models and saliency maps,” in International Conference on Learning Representations (ICLR), 2014.
[21] Y. Jason, C. Jeff, N. Anh, F. Thomas, and L. Hod, “Understanding neural networks through deep visualization,” in Deep Learning Workshop, International Conference on Machine Learning (ICML), 2015.
[22] A. Mordvintsev, C. Olah, and M. Tyka, “Inceptionism: Going deeper into neural networks,” Google Research Blog. Retrieved June, vol. 20, 2015.
[23] A. Mahendran and A. Vedaldi, “Visualizing deep convolutional neural networks using natural pre-images,” International Journal of Computer Vision (IJCV), pp. 1–23, 2016.
[24] A. Nguyen, J. Yosinski, and J. Clune, “Multifaceted feature visualization: Uncovering the different types of features learned by each neuron in deep neural networks,” Visualization for Deep Learning workshop, International Conference in Machine Learning(ICML), 2016.
[25] A. Dosovitskiy and T. Brox, “Inverting convolutional networks with convolutional networks,” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.
[26] A. Mahendran and A. Vedaldi, “Understanding deep image representations by inverting them,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2015, pp. 5188–5196.
[27] L. Gatys, A.S. Ecker, and M. Bethge, “Texture synthesis using convolutional neural networks,” in Advances in Neural Information Processing Systems (NIPS), C. Cortes, N. D. Lawrence, D. D. Lee, M. Sugiyama, and R. Garnett, Eds., pp. 262–270.Curran Associates and Inc., 2015.
[28] D. Ulyanov, V. Lebedev, A. Vedaldi, V. Lempitsky, A. Gupta, A. Vedaldi, A. Zisserman, H. Bilen, B. Fernando, and E. Gavves, “Texture networks: Feed-forward synthesis of textures and stylized images,” in International Conference on MachineLearning, (ICML), 2016.
[29] J. Johnson, A. Alahi, and F.F. Li, “Perceptual losses for realtime style transfer and super-resolution,” European Conference on Computer Vision (ECCV), 2016.
[30] T.Q. Chen, M. Li, Y.T Li, M. Lin, N.Y. Wang, M.J. Wang, T.J. Xiao, B. Xu, C.Y. Zhang, and Z.Zhang, “Mxnet: A flexible and efficient machine learning library for heterogeneous distributed systems,” Advances in Neural Information Processing Systems (NIPS), 2015.
[31] R. Olga, D. Jia, S. Hao, K. Jonathan, S. Sanjeev, M. Sean, Z.H. Huang, K. Andrej, K. Aditya, B. Michael, C.B. Alexander, and F.F. Li, “Imagenet large scale visual recognition challenge,” International Journal of Computer Vision (IJCV), vol. 115, no.3, pp. 211–252, 2015.
(注:感謝您的閱讀浓领,希望本文對您有所幫助。如果覺得不錯歡迎分享轉(zhuǎn)載势腮,但請先點(diǎn)擊 這里 獲取授權(quán)联贩。本文由 版權(quán)印 提供保護(hù),禁止任何形式的未授權(quán)違規(guī)轉(zhuǎn)載捎拯,謝謝泪幌!)