一、批量歸一化和殘差網(wǎng)絡(luò)
1.批量歸一化(BatchNormalization)
?對(duì)輸入的標(biāo)準(zhǔn)化(淺層模型)
? ? ? ?? 處理后的任意一個(gè)特征在數(shù)據(jù)集中所有樣本上的均值為0倒彰、標(biāo)準(zhǔn)差為1疟游。
????????標(biāo)準(zhǔn)化處理輸入數(shù)據(jù)使各個(gè)特征的分布相近
批量歸一化(深度模型)
????????利用小批量上的均值和標(biāo)準(zhǔn)差呼畸,不斷調(diào)整神經(jīng)網(wǎng)絡(luò)中間輸出,從而使整個(gè)神經(jīng)網(wǎng)絡(luò)在各層的中間輸出的數(shù)值更穩(wěn)定颁虐。
2.對(duì)卷積層做批量歸?化
????位置:卷積計(jì)算之后蛮原、應(yīng)?激活函數(shù)之前。
????如果卷積計(jì)算輸出多個(gè)通道另绩,我們需要對(duì)這些通道的輸出分別做批量歸一化儒陨,且每個(gè)通道都擁有獨(dú)立的拉伸和偏移參數(shù)。計(jì)算:對(duì)單通道笋籽,batchsize=m,卷積計(jì)算輸出=pxq對(duì)該通道中m×p×q個(gè)元素同時(shí)做批量歸一化,使用相同的均值和方差蹦漠。
3.預(yù)測(cè)時(shí)的批量歸?化
????訓(xùn)練:以batch為單位,對(duì)每個(gè)batch計(jì)算均值和方差。
????預(yù)測(cè):用移動(dòng)平均估算整個(gè)訓(xùn)練數(shù)據(jù)集的樣本均值和方差车海。
二笛园、優(yōu)化與深度學(xué)習(xí)
1.優(yōu)化與估計(jì)
????盡管優(yōu)化方法可以最小化深度學(xué)習(xí)中的損失函數(shù)值,但本質(zhì)上優(yōu)化方法達(dá)到的目標(biāo)與深度學(xué)習(xí)的目標(biāo)并不相同。
????????優(yōu)化方法目標(biāo):訓(xùn)練集損失函數(shù)值
????????深度學(xué)習(xí)目標(biāo):測(cè)試集損失函數(shù)值(泛化性)
2.優(yōu)化在深度學(xué)習(xí)中的挑戰(zhàn)
????局部最小值
????鞍點(diǎn)
????梯度消失
三研铆、目標(biāo)檢測(cè)基礎(chǔ)
1.錨框
?? 目標(biāo)檢測(cè)算法通常會(huì)在輸入圖像中采樣大量的區(qū)域埋同,然后判斷這些區(qū)域中是否包含我們感興趣的目標(biāo),并調(diào)整區(qū)域邊緣從而更準(zhǔn)確地預(yù)測(cè)目標(biāo)的真實(shí)邊界框(ground-truth bounding box)棵红。不同的模型使用的區(qū)域采樣方法可能不同凶赁。這里我們介紹其中的一種方法:它以每個(gè)像素為中心生成多個(gè)大小和寬高比(aspect ratio)不同的邊界框。這些邊界框被稱(chēng)為錨框(anchor box)窄赋。我們將在后面基于錨框?qū)嵺`目標(biāo)檢測(cè)哟冬。
四、圖像風(fēng)格遷移
1.樣式遷移
? 如果你是一位攝影愛(ài)好者忆绰,也許接觸過(guò)濾鏡。它能改變照片的顏色樣式可岂,從而使風(fēng)景照更加銳利或者令人像更加美白错敢。但一個(gè)濾鏡通常只能改變照片的某個(gè)方面。如果要照片達(dá)到理想中的樣式缕粹,經(jīng)常需要嘗試大量不同的組合稚茅,其復(fù)雜程度不亞于模型調(diào)參。
? 在本節(jié)中平斩,我們將介紹如何使用卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)將某圖像中的樣式應(yīng)用在另一圖像之上亚享,即樣式遷移(style transfer)[1]。這里我們需要兩張輸入圖像绘面,一張是內(nèi)容圖像欺税,另一張是樣式圖像,我們將使用神經(jīng)網(wǎng)絡(luò)修改內(nèi)容圖像使其在樣式上接近樣式圖像揭璃。圖9.12中的內(nèi)容圖像為本書(shū)作者在西雅圖郊區(qū)的雷尼爾山國(guó)家公園(Mount Rainier National Park)拍攝的風(fēng)景照晚凿,而樣式圖像則是一副主題為秋天橡樹(shù)的油畫(huà)。最終輸出的合成圖像在保留了內(nèi)容圖像中物體主體形狀的情況下應(yīng)用了樣式圖像的油畫(huà)筆觸瘦馍,同時(shí)也讓整體顏色更加鮮艷歼秽。
2.方法
? 圖9.13用一個(gè)例子來(lái)闡述基于卷積神經(jīng)網(wǎng)絡(luò)的樣式遷移方法。首先情组,我們初始化合成圖像燥筷,例如將其初始化成內(nèi)容圖像。該合成圖像是樣式遷移過(guò)程中唯一需要更新的變量院崇,即樣式遷移所需迭代的模型參數(shù)肆氓。然后,我們選擇一個(gè)預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)來(lái)抽取圖像的特征亚脆,其中的模型參數(shù)在訓(xùn)練中無(wú)須更新做院。深度卷積神經(jīng)網(wǎng)絡(luò)憑借多個(gè)層逐級(jí)抽取圖像的特征。我們可以選擇其中某些層的輸出作為內(nèi)容特征或樣式特征键耕。以圖9.13為例寺滚,這里選取的預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)含有3個(gè)卷積層,其中第二層輸出圖像的內(nèi)容特征屈雄,而第一層和第三層的輸出被作為圖像的樣式特征村视。接下來(lái),我們通過(guò)正向傳播(實(shí)線箭頭方向)計(jì)算樣式遷移的損失函數(shù)酒奶,并通過(guò)反向傳播(虛線箭頭方向)迭代模型參數(shù)蚁孔,即不斷更新合成圖像。樣式遷移常用的損失函數(shù)由3部分組成:內(nèi)容損失(content loss)使合成圖像與內(nèi)容圖像在內(nèi)容特征上接近惋嚎,樣式損失(style loss)令合成圖像與樣式圖像在樣式特征上接近杠氢,而總變差損失(total variation loss)則有助于減少合成圖像中的噪點(diǎn)。最后另伍,當(dāng)模型訓(xùn)練結(jié)束時(shí)鼻百,我們輸出樣式遷移的模型參數(shù),即得到最終的合成圖像摆尝。