深度學習中的正則化

1沃缘、參數(shù)范數(shù)懲罰

正則化在深度學習的出現(xiàn)前就已經(jīng)被使用了數(shù)十年。線性模型则吟,如線性回歸和邏輯回歸可以使用簡單槐臀、直接、有效的正則化策略氓仲。在探究不同范數(shù)的正則化表現(xiàn)之前水慨,我們需要說明一下,在神經(jīng)網(wǎng)絡中敬扛,參數(shù)包括每一層仿射變換的權重和偏置晰洒,我們通常只對權重做懲罰而不對偏置做正則懲罰。精確擬合偏置所需的數(shù)據(jù)通常比擬合權重少得多啥箭。每個權重會指定兩個變量如何相互作用谍珊。我們需要在各種條件下觀察這兩個變量才能良好地擬合權重。而每個偏置僅控制一個單變量急侥。這意味著砌滞,我們不對其進行正則化也不會導致太大的方差侮邀。另外,正則化偏置參數(shù)可能會導致明顯的欠擬合贝润。

在神經(jīng)網(wǎng)絡的情況下绊茧,有時希望對網(wǎng)絡的每一層使用單獨的懲罰,并分配不同的\alpha系數(shù)打掘。尋找合適的多個超參數(shù)的代價很大华畏,因此為了減少搜索空間,我們會在所有層使用相同的權重衰減尊蚁。

1.1唯绍、L^2參數(shù)正則化

最簡單而又最常見的參數(shù)范數(shù)懲罰,即通常被稱為權重衰減(weight decay)的參數(shù)范數(shù)懲罰枝誊。這個正則化策略通過向目標函數(shù)添加一個正則項 \Omega(\boldsymbol{\theta})=\frac{1}{2}\|\boldsymbol{w}\|_{2}^{2},使權重更加接近原點惜纸。

為了簡單起見叶撒,我們假定其中沒有偏置參數(shù),因此\theta就是w耐版。這樣一個模型具有以下總的目標函數(shù):

\tilde{J}(\boldsymbol{w} ; \boldsymbol{X}, \boldsymbol{y})=\frac{\alpha}{2} \boldsymbol{w}^{\top} \boldsymbol{w}+J(\boldsymbol{w} ; \boldsymbol{X}, \boldsymbol{y})

與之對應的梯度為:

\nabla_{w} \tilde{J}(w ; X, y)=\alpha w+\nabla_{w} J(w ; X, y)

使用單步梯度下降更新權重祠够,即執(zhí)行以下更新:

\boldsymbol{w} \leftarrow \boldsymbol{w}-\epsilon\left(\alpha \boldsymbol{w}+\nabla_{w} J(\boldsymbol{w} ; \boldsymbol{X}, \boldsymbol{y})\right)

換種寫法就是:

\boldsymbol{w} \leftarrow(1-\epsilon \alpha) \boldsymbol{w}-\epsilon \nabla_{\boldsymbol{w}} J(\boldsymbol{w} ; \boldsymbol{X}, \boldsymbol{y})

可以看到,加入權重衰減后會引起學習規(guī)則的修改粪牲,即在每步執(zhí)行通常的梯度更新之前先收縮權重向量(將權重向量乘以一個常數(shù)因子)古瓤。

w^*為未正則化目標函數(shù)取得最小誤差時的權重,即\boldsymbol{w}^{*}=\arg \min _{\boldsymbol{w}} J(\boldsymbol{w})腺阳,在w^*的鄰域?qū)δ繕撕瘮?shù)做二次近似(泰勒公式)落君,近似的\hat{J}(\boldsymbol{\theta})如下:

\hat{J}(\boldsymbol{\theta})=J\left(\boldsymbol{w}^{*}\right)+\frac{1}{2}\left(\boldsymbol{w}-\boldsymbol{w}^{*}\right)^{\top} \boldsymbol{H}\left(\boldsymbol{w}-\boldsymbol{w}^{*}\right)

HJw^?處計算的Hessian矩陣(Hessian矩陣是由目標函數(shù)在w^?處的二階偏導數(shù)組成的對稱矩陣)。因為w^?被定義為最優(yōu)亭引,即梯度消失為0绎速,所以該二次近似中沒有一階項。同樣地焙蚓,因為w^?J的一個最優(yōu)點纹冤,我們可以得出H半正定。

\hat{J}取得最小時购公,其梯度為0:

\nabla_{\boldsymbol{w}} \hat{J}(\boldsymbol{w})=\boldsymbol{H}\left(\boldsymbol{w}-\boldsymbol{w}^{*}\right)=0

為了研究權重衰減帶來的影響萌京,我們在上式中添加權重衰減的梯度。現(xiàn)在我們探討最小化正則化后的\hat{J}宏浩,我們使用變量\tilde{w}表示此時的最優(yōu)點:

\begin{array}{c}{\alpha \tilde{\boldsymbol{w}}+\boldsymbol{H}\left(\tilde{\boldsymbol{w}}-\boldsymbol{w}^{*}\right)=0} \\ {(\boldsymbol{H}+\alpha \boldsymbol{I}) \tilde{\boldsymbol{w}}=\boldsymbol{H} \boldsymbol{w}^{*}} \\ {\tilde{\boldsymbol{w}}=(\boldsymbol{H}+\alpha \boldsymbol{I})^{-1} \boldsymbol{H} \boldsymbol{w}^{*}}\end{array}

\alpha趨向于0時知残,正則化的解\tilde{w}會趨向w^?。當\alpha增加時會發(fā)生什么呢比庄?因為H是實對稱的橡庞,所以我們可以將其分解為一個對角矩陣Λ和一組特征向量的標準正交基Q较坛,并且有H = QΛQ^T

\begin{aligned} \tilde{w} &=\left(Q \Lambda Q^{\top}+\alpha I\right)^{-1} Q \Lambda Q^{\top} w^{*} \\ &=\left[Q(\Lambda+\alpha I) Q^{\top}\right]^{-1} Q \Lambda Q^{\top} w^{*} \\ &=Q(\Lambda+\alpha I)^{-1} \Lambda Q^{\top} w^{*} \end{aligned}

我們可以看到權重衰減的效果是沿著由H的特征向量所定義的軸縮放。具體來說扒最,我們會根據(jù)\frac{\lambda_{i}}{\lambda_{i}+\alpha}因子縮放與Hi個特征向量對齊的w^*的分量丑勤。

沿著H特征值較大的方向 (如λ_i ? \alpha)正則化的影響較小。而λ_i ? \alpha的分量將會收縮到幾乎為零吧趣。

實線橢圓表示沒有正則化目標的等值線法竞。虛線圓圈表示L^2正則化項的等值線。在\tilde{w}點强挫,這兩個競爭目標達到平衡岔霸。目標函數(shù)JHessian的第一維特征值很小。當從w^?水平移動時俯渤,目標函數(shù)不會增加得太多呆细。因為目標函數(shù)對這個方向沒有強烈的偏好,所以正則化項對該軸具有強烈的影響八匠。正則化項將w_1拉向零絮爷。而目標函數(shù)對沿著第二維遠離w^*的移動非常敏感。對應的特征值較大梨树,表示高曲率坑夯。因此,權重衰減對w_2的位置影響相對較小抡四。

只有在顯著減小目標函數(shù)方向上的參數(shù)會保留得相對完好柜蜈。在無助于目標函數(shù)減小的方向(對應 Hessian 矩陣較小的特征值)上改變參數(shù)不會顯著增加梯度。這種不重要方向?qū)姆至繒谟柧氝^程中因正則化而衰減掉指巡。

1.2淑履、L^1參數(shù)正則化

L^1正則化的目標函數(shù)如下所示:

\tilde{J}(\boldsymbol{w} ; \boldsymbol{X}, \boldsymbol{y})=\alpha\|\boldsymbol{w}\|_{1}+J(\boldsymbol{w} ; \boldsymbol{X}, \boldsymbol{y})

對應的次梯度為(https://blog.csdn.net/qq_32742009/article/details/81704139):

\nabla_{w} \tilde{J}(w ; X, y)=\alpha \operatorname{sign}(w)+\nabla_{w} J(w ; X, y)

由于L^1懲罰項在完全一般化的Hessian的情況下,無法得到直接清晰的代數(shù)表達式藻雪,因此我們進一步簡化假設Hessian是對角的鳖谈,即\boldsymbol{H}=\operatorname{diag}\left(\left[H_{1,1}, \ldots, H_{n, n}\right]\right),其中每個H_{i, i}>0阔涉。若數(shù)據(jù)已被預處理(如可以使用 PCA)缆娃,去除了輸入特征之間的相關性,那么這一假設成立瑰排。

我們可以將L^1正則化目標函數(shù)的二次近似分解成關于參數(shù)的求和:

\hat{J}(\boldsymbol{w} ; \boldsymbol{X}, \boldsymbol{y})=J\left(\boldsymbol{w}^{*} ; \boldsymbol{X}, \boldsymbol{y}\right)+\sum_{i}\left[\frac{1}{2} H_{i, i}\left(w_{i}-w_{i}^{*}\right)^{2}+\alpha\left|w_{i}\right|\right]

如下列形式的解析解(對每一維 i)可以最小化這個近似代價函數(shù):

w_{i}=\operatorname{sign}\left(w_{i}^{*}\right) \max \left\{\left|w_{i}^{*}\right|-\frac{\alpha}{H_{i, i}}, 0\right\}

對每個 i, 考慮w_{i}^{*}>0的情形贯要,會有兩種可能結果:

  • w_{i}^{*} \leq \frac{\alpha}{H_{i, i}}:正則化后目標中的 wi 最優(yōu)值是w_i = 0

  • w_{i}^{*}>\frac{\alpha}{H_{i, i}}:在這種情況下椭住,正則化不會將w_i的最優(yōu)值推至 0崇渗,而僅僅在那個方向上移動\frac{\alpha}{H_{i, i}}的距離。

w^*>0的情況與之類似。

相比L^2正則化宅广,L^1正則化會產(chǎn)生更稀疏(sparse)的解秸侣。此處稀疏性指的是最優(yōu)值中的一些參數(shù)為 0帐萎。由L^1正則化導出的稀疏性已經(jīng)被廣泛地用于特征選擇(feature selection)機制勇垛。特征選擇從可用特征子集選出有意義的特征世吨,化簡機器學習問題。

2驶臊、作為約束的范數(shù)懲罰

考慮經(jīng)過參數(shù)范數(shù)正則化的代價函數(shù):

\tilde{J}(\boldsymbol{\theta} ; \boldsymbol{X}, \boldsymbol{y})=J(\boldsymbol{\theta} ; \boldsymbol{X}, \boldsymbol{y})+\alpha \Omega(\boldsymbol{\theta})

我們可以構造一個廣義 Lagrange 函數(shù)來最小化帶約束的函數(shù)挪挤,即在原始目標函數(shù)上添加一系列懲罰項。每個懲罰是一個被稱為 Karush–Kuhn–Tucker(Karusuhucker)乘子的系數(shù)以及一個表示約束是否滿足的函數(shù)之間的乘積关翎。如果我們想約束\Omega({\theta})小于某個常數(shù)k扛门,我們可以構建廣義 Lagrange 函數(shù):

\mathcal{L}(\boldsymbol{\theta}, \alpha ; \boldsymbol{X}, \boldsymbol{y})=J(\boldsymbol{\theta} ; \boldsymbol{X}, \boldsymbol{y})+\alpha(\Omega(\boldsymbol{\theta})-k)

這個約束問題的解由下式給出:

\boldsymbol{\theta}^{*}=\underset{\boldsymbol{\theta}}{\arg \min } \max _{\boldsymbol{\alpha}, \boldsymbol{\alpha} \geq 0} \mathcal{L}(\boldsymbol{\theta}, \alpha)

解決這個問題我們需要對\theta\alpha都做出調(diào)整。為了洞察約束的影響纵寝,我們固定\alpha^*论寨,把這個問題看成只跟\theta有關的函數(shù):

\boldsymbol{\theta}^{*}=\underset{\boldsymbol{\theta}}{\arg \min } \mathcal{L}\left(\boldsymbol{\theta}, \alpha^{*}\right)=\underset{\boldsymbol{\theta}}{\arg \min } J(\boldsymbol{\theta} ; \boldsymbol{X}, \boldsymbol{y})+\alpha^{*} \Omega(\boldsymbol{\theta})

通常我們不知道權重衰減系數(shù)\alpha^*約束的區(qū)域大小,因為\alpha^*的值不直接告訴我們k的值爽茴。原則上我們可以解得k葬凳,但k\alpha^*之間的關系取決于J的形式。雖然我們不知道約束區(qū)域的確切大小闹啦,但我們可以通過增加或者減小\alpha來大致擴大或收縮約束區(qū)域。較大的\alpha辕坝,將得到一個較小的約束區(qū)域窍奋。較小的\alpha,將得到一個較大的約束區(qū)域酱畅。

有時候琳袄,我們希望使用顯式的限制,而不是懲罰纺酸。我們可以修改下降算法(如隨機梯度下降算法)窖逗,使其先計算J(θ)的下降步,然后將\theta投影到滿足?(θ) < k的最近點餐蔬。如果我們知道什么樣的k是合適的碎紊,而不想花時間尋找對應于此k處的\alpha值,這會非常有用樊诺。

3仗考、正則化和欠約束問題

在某些情況下,為了正確定義機器學習問題词爬,正則化是必要的秃嗜。機器學習中許多線性模型,包括線性回歸和 PCA,都依賴于對矩陣X^T X求逆锅锨。只要X^T X是奇異的叽赊,這些方法就會失效。當數(shù)據(jù)生成分布在一些方向上確實沒有差異時必搞,或因為例子較少(即相對輸入特征的維數(shù)來說)而在一些方向上沒有觀察到方差時必指,這個矩陣就是奇異的。在這種情況下顾画,正則化的許多形式對應求逆X + \alpha I取劫。這個正則化矩陣可以保證可逆。

沒有閉式解的問題也可能是欠定的研侣。一個例子是應用于線性可分問題的邏輯回歸谱邪。如果權重向量w能夠?qū)崿F(xiàn)完美分類,那么2w也會以更高似然實現(xiàn)完美分類庶诡。類似隨機梯度下降的迭代優(yōu)化算法將持續(xù)增加w的大小惦银,理論上永遠不會停止。在實踐中末誓,數(shù)值實現(xiàn)的梯度下降最終會達到導致數(shù)值溢出的超大權重扯俱,此時的行為將取決于程序員如何處理這些不是真正數(shù)字的值。大多數(shù)形式的正則化能夠保證應用于欠定問題的迭代方法收斂喇澡。例如迅栅,當似然的斜率等于權重衰減的系數(shù)時,權重衰減將阻止梯度下降繼續(xù)增加權重的大小晴玖。

4读存、數(shù)據(jù)集增強

讓機器學習模型泛化得更好的最好辦法是使用更多的數(shù)據(jù)進行訓練。當然呕屎,在實踐中让簿,我們擁有的數(shù)據(jù)量是很有限的。解決這個問題的一種方法是創(chuàng)建假數(shù)據(jù)并添加到訓練集中秀睛。對于一些機器學習任務尔当,創(chuàng)建新的假數(shù)據(jù)相當簡單。

對分類來說這種方法是最簡單的蹂安。分類器需要一個復雜的高維輸入x椭迎,并用單個類別標識y概括x。這意味著分類面臨的一個主要任務是要對各種各樣的變換保持不變田盈。我們可以輕易通過轉(zhuǎn)換訓練集中的x來生成新的(x, y)侠碧。

數(shù)據(jù)集增強對一個具體的分類問題來說是特別有效的方法:對象識別。圖像是高維的并包括各種巨大的變化因素缠黍,其中有許多可以輕易地模擬弄兜。即使模型已使用卷積和池化技術對部分平移保持不變,沿訓練圖像每個方向平移幾個像素的操作通常可以大大改善泛化替饿。許多其他操作如旋轉(zhuǎn)圖像或縮放圖像也已被證明非常有效语泽。

這種方法對于其他許多任務來說并不那么容易。例如视卢,除非我們已經(jīng)解決了密度估計問題踱卵,否則在密度估計任務中生成新的假數(shù)據(jù)是很困難的。

在神經(jīng)網(wǎng)絡的輸入層注入噪聲 (Sietsma and Dow, 1991) 也可以被看作是數(shù)據(jù)增強的一種方式据过。對于許多分類甚至一些回歸任務而言惋砂,即使小的隨機噪聲被加到輸入,任務仍應該是能夠被解決的绳锅。然而西饵,神經(jīng)網(wǎng)絡被證明對噪聲不是非常健壯 (Tangand Eliasmith, 2010)。改善神經(jīng)網(wǎng)絡健壯性的方法之一是簡單地將隨機噪聲添加到輸入再進行訓練鳞芙。向隱藏單元施加噪聲也是可行的眷柔,這可以被看作在多個抽象層上進行的數(shù)據(jù)集增強。

5原朝、噪聲魯棒性

對于某些模型而言驯嘱,向輸入添加方差極小的噪聲等價于對權重施加范數(shù)懲罰 (Bishop, 1995a,b)。在一般情況下喳坠,注入噪聲遠比簡單地收縮參數(shù)強大鞠评,特別是噪聲被添加到隱藏單元時會更加強大。之后要提到的Dropout 算法是這種做法的主要發(fā)展方向壕鹉。

另一種正則化模型的噪聲使用方式是將其加到權重剃幌。這項技術主要用于循環(huán)神經(jīng)網(wǎng)絡 (Jim et al., 1996; Graves, 2011)。這可以被解釋為關于權重的貝葉斯推斷的隨機實現(xiàn)御板。

在某些假設下锥忿,施加于權重的噪聲可以被解釋為與更傳統(tǒng)的正則化形式等同牛郑,鼓勵要學習的函數(shù)保持穩(wěn)定怠肋。我們研究回歸的情形,也就是訓練將一組特征x映射成一個標量的函數(shù)\hat{y}(x)淹朋,并使用最小二乘代價函數(shù)衡量模型預測值\hat{y}(x)與真實值y的誤差:

J=\mathbb{E}_{p(x, y)}\left[(\hat{y}(\boldsymbol{x})-y)^{2}\right]

現(xiàn)在我們假設對每個輸入表示笙各,網(wǎng)絡權重添加隨機擾動\epsilon_{w} \sim \mathcal{N}(\epsilon ; 0, \eta I)。想象我們有一個標準的l層MLP础芍。我們將擾動模型記為\hat{y}_{\epsilon_{W}}(\boldsymbol{x})杈抢,盡管有噪聲注入,我們?nèi)匀幌M麥p少網(wǎng)絡輸出誤差的平方仑性。因此目標函數(shù)變?yōu)椋?/p>

\begin{aligned} \tilde{J}_{W} &=\mathbb{E}_{p\left(x, y, \epsilon_{W}\right)}\left[\left(\hat{y}_{\epsilon_{W}}(\boldsymbol{x})-y\right)^{2}\right] \\ &=\mathbb{E}_{p\left(\boldsymbol{x}, y, \epsilon_{W}\right)}\left[\hat{y}_{\epsilon_{W}}^{2}(\boldsymbol{x})-2 y \hat{y}_{\epsilon_{W}}(\boldsymbol{x})+y^{2}\right] \end{aligned}

對于小的η惶楼,最小化帶權重噪聲(方差為ηI)的J等同于最小化附加正則化項\eta \mathbb{E}_{p(\boldsymbol{x}, y)}\left[\left\|\nabla_{\boldsymbol{W}} \hat{y}(\boldsymbol{x})\right\|^{2}\right]J這種形式的正則化鼓勵參數(shù)進入權重小擾動對輸出相對影響較小的參數(shù)空間區(qū)域。換句話說歼捐,它推動模型進入對權重小的變化相對不敏感的區(qū)域何陆,找到的點不只是極小點,還是由平坦區(qū)域所包圍的極小點 (Hochreiter andSchmidhuber, 1995)豹储。

另一種正則化方法是向輸出目標注入噪聲贷盲。大多數(shù)數(shù)據(jù)集的y標簽都有一定錯誤。錯誤的y不利于最大化log p(y | x)剥扣。避免這種情況的一種方法是顯式地對標簽上的噪聲進行建模巩剖。例如,標簽平滑(label smoothing)通過把確切分類目標從 0 和1 替換成\frac{?}{k?1}1 ? ?钠怯,正則化具有k個輸出的softmax函數(shù)的模型佳魔。標準交叉熵損失可以用在這些非確切目標的輸出上。使用softmax函數(shù)和明確目標的最大似然學習可能永遠不會收斂——softmax函數(shù)永遠無法真正預測0概率或1概率呻疹,因此它會繼續(xù)學習越來越大的權重吃引,使預測更極端。使用如權重衰減等其他正則化策略能夠防止這種情況刽锤。標簽平滑的優(yōu)勢是能夠防止模型追求確切概率而不影響模型學習正確分類镊尺。

6、半監(jiān)督學習

在半監(jiān)督學習的框架下并思,P (x)產(chǎn)生的未標記樣本和P (x, y)中的標記樣本都用于估計P (y | x)或者根據(jù)x預測y庐氮。

在深度學習的背景下,半監(jiān)督學習通常指的是學習一個表示h = f (x)宋彼。學習表示的目的是使相同類中的樣本有類似的表示弄砍。無監(jiān)督學習可以為如何在表示空間聚集樣本提供有用線索。在輸入空間緊密聚集的樣本應該被映射到類似的表示输涕。

7音婶、多任務學習

多任務學習 (Caruana, 1993) 是通過合并幾個任務中的樣例(可以視為對參數(shù)施加的軟約束)來提高泛化的一種方式。正如額外的訓練樣本能夠?qū)⒛P蛥?shù)推向具有更好泛化能力的值一樣莱坎,當模型的一部分被多個額外的任務共享時衣式,這部分將被約束為良好的值(如果共享合理),通常會帶來更好的泛化能力檐什。

下圖展示了多任務學習中非常普遍的一種形式碴卧,不同的監(jiān)督任務(給定x預測y^{(i)})共享相同的輸入x以及一些中間層表示h^{(share)},能學習共同的因素池乃正。該模型通匙〔幔可以分為兩類相關的參數(shù):

  • 具體任務的參數(shù)(只能從各自任務的樣本中實現(xiàn)良好的泛化)。如圖中的上層瓮具。

  • 所有任務共享的通用參數(shù)(從所有任務的匯集數(shù)據(jù)中獲益)荧飞。如圖中的下層凡人。因為共享參數(shù),其統(tǒng)計強度(共享參數(shù)的樣本數(shù)量相對于單任務模式增加的比例)可大大提高叹阔,并能改善泛化和泛化誤差的范圍 (Baxter, 1995)划栓。當然,僅當不同的任務之間存在某些統(tǒng)計關系的假設是合理(意味著某些參數(shù)能通過不同任務共享)時才會發(fā)生這種情況条获。

多任務學習在深度學習框架中可以以多種方式進行忠荞,該圖說明了任務共享相同輸入但涉及不同目標隨機變量的常見情況。深度網(wǎng)絡的較低層(無論是監(jiān)督前饋的帅掘,還是包括向下箭頭的生成組件)可以跨這樣的任務共享委煤,而任務特定的參數(shù)(分別與從h^{(1)}h^{(2)}進入和發(fā)出的權重)可以在共享表示h^{(share)}之上學習。這里的基本假設是存在解釋輸入x變化的共同因素池修档,而每個任務與這些因素的子集相關聯(lián)碧绞。在該示例中,額外假設頂層隱藏單元h^{(1)}h^{(2)}專用于每個任務(分別預測y^{(1)}y^{(2)})吱窝,而一些中間層表示h^{(share)}在所有任務之間共享讥邻。

8、提前終止

當訓練有足夠的表示能力甚至會過擬合的大模型時院峡,我們經(jīng)常觀察到兴使,訓練誤差會隨著時間的推移逐漸降低但驗證集的誤差會再次上升。

這意味著我們只要返回使驗證集誤差最低的參數(shù)設置照激,就可以獲得驗證集誤差更低的模型(并且因此有希望獲得更好的測試誤差)发魄。當驗證集上的誤差在事先指定的循環(huán)次數(shù)內(nèi)沒有進一步改善時,算法就會終止俩垃。這種策略被稱為提前終止(early stopping)励幼。這可能是深度學習中最常用的正則化形式。它的流行主要是因為有效性和簡單性口柳。

提前終止是一種非常不顯眼的正則化形式苹粟,它幾乎不需要改變基本訓練過程、目標函數(shù)或一組允許的參數(shù)值跃闹。這意味著嵌削,無需破壞學習動態(tài)就能很容易地使用提前終止。

提前終止對減少訓練過程的計算成本也是有用的辣卒。除了由于限制訓練的迭代次數(shù)而明顯減少的計算成本掷贾,還帶來了正則化的益處(不需要添加懲罰項的代價函數(shù)或計算這種附加項的梯度)睛榄。

Bishop (1995a) 和 Sj?berg and Ljung(1995) 認為提前終止可以將優(yōu)化過程的參數(shù)空間限制在初始參數(shù)值\theta_0的小鄰域內(nèi)荣茫。更具體地,想象用學習率?進行τ個優(yōu)化步驟(對應于τ個訓練迭代)场靴。我們可以將?τ作為有效容量的度量啡莉。假設梯度有界港准,限制迭代的次數(shù)和學習速率能夠限制從\theta_0到達的參數(shù)空間的大小。在這個意義上咧欣,?τ的效果就好像是權重衰減系數(shù)的倒數(shù)浅缸。

事實上,在二次誤差的簡單線性模型和簡單的梯度下降情況下魄咕,我們可以展示提前終止相當于L^2正則化衩椒。我們在權重w的經(jīng)驗最佳值w^?附近以二次近似建模代價函數(shù)J

\hat{J}(\boldsymbol{\theta})=J\left(\boldsymbol{w}^{*}\right)+\frac{1}{2}\left(\boldsymbol{w}-\boldsymbol{w}^{*}\right)^{\top} \boldsymbol{H}\left(\boldsymbol{w}-\boldsymbol{w}^{*}\right)

其中HJ關于ww^*點的Hessian矩陣。鑒于假設w^?J(w)的最小點哮兰,我們知道H為半正定毛萌。在局部泰勒級數(shù)逼近下,梯度由下式給出:

\nabla_{w} \hat{J}(\boldsymbol{w})=\boldsymbol{H}\left(\boldsymbol{w}-\boldsymbol{w}^{*}\right)

為簡化起見喝滞,我們將參數(shù)向量初始化為原點阁将,也就是w^{(0)} = 0。我們通過分析\hat{J}上的梯度下降來研究J上近似的梯度下降的效果:

\begin{aligned} \boldsymbol{w}^{(\tau)} &=\boldsymbol{w}^{(\tau-1)}-\epsilon \nabla_{\boldsymbol{w}} \hat{J}\left(\boldsymbol{w}^{(\tau-1)}\right) \\ &=\boldsymbol{w}^{(\tau-1)}-\epsilon \boldsymbol{H}\left(\boldsymbol{w}^{(\tau-1)}-\boldsymbol{w}^{*}\right) \end{aligned}

即:

\boldsymbol{w}^{(\tau)}-\boldsymbol{w}^{*}=(\boldsymbol{I}-\epsilon \boldsymbol{H})\left(\boldsymbol{w}^{(\tau-1)}-\boldsymbol{w}^{*}\right)

現(xiàn)在讓我們在H特征向量的空間中改寫表達式右遭,利用H的特征分解H = QΛQ^T做盅,其中Λ是對角矩陣,Q是特征向量的一組標準正交基窘哈。

\begin{aligned} \boldsymbol{w}^{(\tau)}-\boldsymbol{w}^{*} &=\left(\boldsymbol{I}-\epsilon \boldsymbol{Q} \boldsymbol{\Lambda} \boldsymbol{Q}^{\top}\right)\left(\boldsymbol{w}^{(\tau-1)}-\boldsymbol{w}^{*}\right) \\ \boldsymbol{Q}^{\top}\left(\boldsymbol{w}^{(\tau)}-\boldsymbol{w}^{*}\right) &=(\boldsymbol{I}-\epsilon \boldsymbol{\Lambda}) \boldsymbol{Q}^{\top}\left(\boldsymbol{w}^{(\tau-1)}-\boldsymbol{w}^{*}\right) \end{aligned}

假定w^{(0)} = 0并且?選擇得足夠小以保證|1 ? ?λi | < 1吹榴,經(jīng)過τ次參數(shù)更新后軌跡如下:

\boldsymbol{Q}^{\top} \boldsymbol{w}^{(\tau)}=\left[\boldsymbol{I}-(\boldsymbol{I}-\epsilon \boldsymbol{\Lambda})^{\tau}\right] \boldsymbol{Q}^{\top} \boldsymbol{w}^{*}

回憶L^2正則化中有:

\tilde{w}=Q(\Lambda+\alpha I)^{-1} \Lambda Q^{\top} w^{*}

從而:

Q^{\top} \tilde{w}=\left[I-(\Lambda+\alpha I)^{-1} \alpha\right] Q^{\top} w^{*}

我們能夠發(fā)現(xiàn),如果超參數(shù)?,ατ滿足如下關系:

(\boldsymbol{I}-\epsilon \boldsymbol{\Lambda})^{\tau}=(\boldsymbol{\Lambda}+\alpha \boldsymbol{I})^{-1} \alpha

L^2正則化和提前終止可以被看作是等價的(至少在目標函數(shù)的二次近似下)滚婉。進一步取對數(shù)腊尚,使用\log (1 + x)的級數(shù)展開,我們可以得出結論:如果所有λ_i是小的(即?? 1\frac{λ_i}{α} ? 1)满哪,那么:

\begin{aligned} \tau & \approx \frac{1}{\epsilon \alpha} \\ \alpha & \approx \frac{1}{\tau \epsilon} \end{aligned}

也就是說婿斥,在這些假設下,訓練迭代次數(shù)τ起著與L^2參數(shù)成反比的作用哨鸭,τ ?的倒數(shù)與權重衰減系數(shù)的作用類似民宿。

9、參數(shù)綁定和參數(shù)共享

目前為止像鸡,本章討論對參數(shù)添加約束或懲罰時活鹰,一直是相對于固定的區(qū)域或點。例如只估,L^2正則化(或權重衰減)對參數(shù)偏離零的固定值進行懲罰志群。然而,有時我們可能需要其他的方式來表達我們對模型參數(shù)適當值的先驗知識蛔钙。有時候锌云,我們可能無法準確地知道應該使用什么樣的參數(shù),但我們根據(jù)相關領域和模型結構方面的知識得知模型參數(shù)之間應該存在一些相關性吁脱。

我們經(jīng)常想要表達的一種常見依賴是某些參數(shù)應當彼此接近桑涎”蛳颍考慮以下情形:我們有兩個模型執(zhí)行相同的分類任務(具有相同類別),但輸入分布稍有不同攻冷。形式地娃胆,我們有參數(shù)為w(A)的模型A和參數(shù)為w(B)的模型B。這兩種模型將輸入映射到兩個不同但相關的輸出:\hat{y}(A) = f (w(A) , x)\hat{y}(B) = f(w(B) , x)等曼。

們可以想象里烦,這些任務會足夠相似(或許具有相似的輸入和輸出分布),因此我們認為模型參數(shù)應彼此靠近:\forall i, w_{i}^{(A)}應與w_{i}^{(B)}接近禁谦。我們可以通過正則化利用此信息招驴。具體來說,我們可以使用以下形式的參數(shù)范數(shù)懲罰:

\Omega\left(\boldsymbol{w}^{(A)}, \boldsymbol{w}^{(B)}\right)=\left\|\boldsymbol{w}^{(A)}-\boldsymbol{w}^{(B)}\right\|_{2}^{2}

在這里我們使用L^2懲罰枷畏,但也可以使用其他選擇别厘。

參數(shù)范數(shù)懲罰是正則化參數(shù)使其彼此接近的一種方式,而更流行的方法是使用約束:強迫某些參數(shù)相等拥诡。由于我們將各種模型或模型組件解釋為共享唯一的一組參數(shù)触趴,這種正則化方法通常被稱為參數(shù)共享(parameter sharing)。目前為止渴肉,最流行和廣泛使用的參數(shù)共享出現(xiàn)在應用于計算機視覺的卷積神經(jīng)網(wǎng)絡(CNN)中冗懦。

10、稀疏表示

前文所述的權重衰減直接懲罰模型參數(shù)仇祭。另一種策略是懲罰神經(jīng)網(wǎng)絡中的激活單元披蕉,稀疏化激活單元。這種策略間接地對模型參數(shù)施加了復雜懲罰乌奇。

表示的稀疏描述了許多元素是零(或接近零)的表示没讲。我們可以在線性回歸的情況下簡單說明這種區(qū)別:

y=Ax

\left[\begin{array}{c}{18} \\ {5} \\ {15} \\ {-9} \\ {-3}\end{array}\right]=\left[\begin{array}{cccccc}{4} & {0} & {0} & {-2} & {0} & {0} \\ {0} & {0} & {-1} & {0} & {3} & {0} \\ {0} & {5} & {0} & {0} & {0} & {0} \\ {1} & {0} & {0} & {-1} & {0} & {-4} \\ {1} & {0} & {0} & {0} & {-5} & {0}\end{array}\right] \left[\begin{array}{c}{2} \\ {3} \\ {-2} \\ {-5} \\ {1} \\ {4}\end{array}\right]

y=Bh

\left[\begin{array}{c}{-14} \\ {1} \\ {19} \\ {2} \\ {23}\end{array}\right]=\left[\begin{array}{cccccc}{3} & {-1} & {2} & {-5} & {4} & {1} \\ {4} & {2} & {-3} & {-1} & {1} & {3} \\ {-1} & {5} & {4} & {2} & {-3} & {-2} \\ {3} & {1} & {2} & {-3} & {0} & {-3} \\ {-5} & {4} & {-2} & {2} & {-5} & {-1}\end{array}\right]\left[\begin{array}{c}{0} \\ {2} \\ {0} \\ {0} \\ {-3} \\ {0}\end{array}\right]

第一個表達式是參數(shù)稀疏的線性回歸模型的例子。第二個表達式是數(shù)據(jù)x具有稀疏表示h的線性回歸礁苗。也就是說hx的一個函數(shù)爬凑,在某種意義上表示存在于x中的信息,但只是用一個稀疏向量表示试伙。

表示的范數(shù)懲罰正則化是通過向損失函數(shù) J 添加對表示的范數(shù)懲罰來實現(xiàn)的嘁信。我們將這個懲罰記作?(h)。和以前一樣疏叨,我們將正則化后的損失函數(shù)記作:

\tilde{J}(\boldsymbol{\theta} ; \boldsymbol{X}, \boldsymbol{y})=J(\boldsymbol{\theta} ; \boldsymbol{X}, \boldsymbol{y})+\alpha \Omega(\boldsymbol{h})

正如對參數(shù)的L^1懲罰誘導參數(shù)稀疏性潘靖,對表示元素的L^1懲罰誘導稀疏的表示:

\Omega(\boldsymbol{h})=\|\boldsymbol{h}\|_{1}=\sum_{i}\left|h_{i}\right|

其他方法還包括從表示上的Student-t先驗導出的懲罰 (Olshausen and Field, 1996; Bergstra, 2011)和KL散度懲罰(Larochelle and Bengio, 2008b),這些方法對于將表示中的元素約束于單位區(qū)間上特別有用蚤蔓。

還有一些其他方法通過激活值的硬性約束來獲得表示稀疏卦溢。例如,正交匹配追蹤 (orthogonal matching pursuit)(Pati et al., 1993) 通過解決以下約束優(yōu)化問題將輸入值x編碼成表示h

\underset{h,\|h\|_{0}<k}{\arg \min }\|x-W h\|^{2}

其中||h||_0h中非零項的個數(shù)。當W被約束為正交時既绕,我們可以高效地解決這個問題。這種方法通常被稱為OMP-k涮坐,通過k指定允許的非零特征數(shù)量凄贩。Coates and Ng (2011) 證明OMP-1可以成為深度架構中非常有效的特征提取器。

11袱讹、Bagging 和其他集成方法

Bagging(bootstrap aggregating)是通過結合幾個模型降低泛化誤差的技術疲扎。主要想法是分別訓練幾個不同的模型,然后讓所有模型表決測試樣例的輸出捷雕。這是機器學習中常規(guī)策略的一個例子椒丧,被稱為模型平均(model averaging)。采用這種策略的技術被稱為集成方法救巷。模型平均奏效的原因是不同的模型通常不會在測試集上產(chǎn)生完全相同的誤差壶熏。

神經(jīng)網(wǎng)絡能找到足夠多的不同的解,意味著他們可以從模型平均中受益 (即使所有模型都在同一數(shù)據(jù)集上訓練)浦译。神經(jīng)網(wǎng)絡中隨機初始化的差異棒假、小批量的隨機選擇、超參數(shù)的差異或不同輸出的非確定性實現(xiàn)往往足以使得集成的不同成員具有部分獨立的誤差精盅。

不是所有構建集成的技術都是為了讓集成模型比單一模型更加正則化帽哑。例如,一種被稱為Boosting的技術 (Freund and Schapire, 1996b,a) 構建比單個模型容量更高的集成模型叹俏。通過向集成逐步添加神經(jīng)網(wǎng)絡妻枕,Boosting已經(jīng)被應用于構建神經(jīng)網(wǎng)絡的集成(Schwenk and Bengio, 1998)。通過逐漸增加神經(jīng)網(wǎng)絡的隱藏單元Boosting也可以將單個神經(jīng)網(wǎng)絡解釋為一個集成。

12、Dropout

Dropout (Srivastava et al., 2014) 提供了正則化一大類模型的方法只壳,計算方便但功能強大救氯。在第一種近似下,Dropout可以被認為是集成大量深層神經(jīng)網(wǎng)絡的實用Bagging方法赤拒。Bagging涉及訓練多個模型,并在每個測試樣本上評估多個模型。當每個模型都是一個很大的神經(jīng)網(wǎng)絡時亭珍,這似乎是不切實際的,因為訓練和評估這樣的網(wǎng)絡需要花費很多運行時間和內(nèi)存枝哄。通常我們只能集成五至十個神經(jīng)網(wǎng)絡肄梨,如Szegedy et al. (2014a)集成了六個神經(jīng)網(wǎng)絡贏得 ILSVRC,超過這個數(shù)量就會迅速變得難以處理挠锥。Dropout提供了一種廉價的Bagging集成近似众羡,能夠訓練和評估指數(shù)級數(shù)量的神經(jīng)網(wǎng)絡。

具體而言蓖租,Dropout訓練的集成包括所有從基礎網(wǎng)絡除去非輸出單元后形成的子網(wǎng)絡粱侣,如下圖羊壹。最先進的神經(jīng)網(wǎng)絡基于一系列仿射變換和非線性變換,我們只需將一些單元的輸出乘零就能有效地刪除一個單元齐婴。這個過程需要對模型(如徑向基函數(shù)網(wǎng)絡油猫,單元的狀態(tài)和參考值之間存在一定區(qū)別)進行一些修改。

回想一下Bagging學習柠偶,我們定義k個不同的模型情妖,從訓練集有放回采樣構造k個不同的數(shù)據(jù)集,然后在訓練集i上訓練模型i诱担。Dropout的目標是在指數(shù)級數(shù)量的神經(jīng)網(wǎng)絡上近似這個過程毡证。具體來說,在訓練中使用Dropout時蔫仙,我們會使用基于小批量產(chǎn)生較小步長的學習算法料睛,如隨機梯度下降等。我們每次在小批量中加載一個樣本摇邦,然后隨機抽樣應用于網(wǎng)絡中所有輸入和隱藏單元的不同二值掩碼秦效。對于每個單元,掩碼是獨立采樣的涎嚼。掩碼值為 1 的采樣概率(導致包含一個單元)是訓練開始前一個固定的超參數(shù)阱州。它不是模型當前參數(shù)值或輸入樣本的函數(shù)。通常在每一個小批量訓練的神經(jīng)網(wǎng)絡中法梯,一個輸入單元被包括的概率為0.8苔货,一個隱藏單元被包括的概率為0.5。然后立哑,我們運行和之前一樣的前向傳播夜惭、反向傳播以及學習更新。

使用Dropout之后神經(jīng)網(wǎng)絡的訓練流程如下:

(1)首先隨機(臨時)刪掉網(wǎng)絡中一部分(具體比例可通過超參數(shù)設定)的隱藏神經(jīng)元铛绰,輸入輸出神經(jīng)元保持不變(下圖中虛線為部分臨時被刪除的神經(jīng)元)诈茧。

(2)把輸入x通過修改后的網(wǎng)絡前向傳播,然后把得到的損失結果通過修改的網(wǎng)絡反向傳播捂掰。一小批訓練樣本執(zhí)行完這個過程后敢会,在沒有被刪除的神經(jīng)元上按照隨機梯度下降法更新對應的參數(shù)。

(3)恢復被刪掉的神經(jīng)元(此時被刪除的神經(jīng)元保持原樣这嚣,而沒有被刪除的神經(jīng)元已經(jīng)有所更新)鸥昏,繼續(xù)重復這一過程。

更正式地說姐帚,假設一個掩碼向量\mu指定被包括的單元吏垮,J(\theta,\mu)是由參數(shù)\theta和掩碼\mu定義的模型代價。那么Dropout訓練的目標是最小化\mathbb{E}_{\boldsymbol{\mu}} J(\boldsymbol{\theta}, \boldsymbol{\mu})。這個期望包含多達指數(shù)級的項膳汪,但我們可以通過抽樣\mu獲得梯度的無偏估計唯蝶。

Dropout訓練與Bagging訓練不太一樣。在Bagging的情況下遗嗽,所有模型都是獨立的粘我。在Dropout中,所有模型共享參數(shù)媳谁,其中每個模型繼承父神經(jīng)網(wǎng)絡參數(shù)的不同子集涂滴。參數(shù)共享使得在有限可用的內(nèi)存下表示指數(shù)級數(shù)量的模型變得可能友酱。

在Bagging的情況下晴音,每一個模型在其相應訓練集上訓練到收斂。在Dropout中缔杉,通常大部分模型都沒有顯式地被訓練锤躁,因為通常父神經(jīng)網(wǎng)絡會很大,以致于到宇宙毀滅都不可能采樣完所有的子網(wǎng)絡或详。取而代之的是系羞,在單個步驟中我們訓練一小部分的子網(wǎng)絡,參數(shù)共享會使得剩余的子網(wǎng)絡也能有好的參數(shù)設定霸琴。這些是僅有的區(qū)別椒振。除了這些,Dropout與Bagging算法一樣梧乘。例如澎迎,每個子網(wǎng)絡中遇到的訓練集確實是有放回采樣的原始訓練集的一個子集。

們假定該模型的作用是輸出一個概率分布选调。在Bagging的情況下夹供,每個模型i產(chǎn)生一個概率分布p^{(i)} (y | x)。集成的預測由這些分布的算術平均值給出:

\frac{1}{k} \sum_{i=1}^{k} p^{(i)}(y | \boldsymbol{x})

在Dropout的情況下仁堪,通過掩碼\mu定義每個子模型的概率分布p(y | x, \mu)哮洽。集成的預測由關于\mu的算術平均值由下式給出:

\sum_{\boldsymbol{\mu}} p(\boldsymbol{\mu}) p(y | \boldsymbol{x}, \boldsymbol{\mu})

其中p(\mu)是訓練時采樣\mu的概率分布。

這個求和包含多達指數(shù)級的項弦聂,除非該模型的結構允許某種形式的簡化鸟辅,否則是不可能計算的。我們可以通過采樣近似推斷莺葫,即平均許多掩碼的輸出剔桨。即使是10 ? 20個掩碼就足以獲得不錯的表現(xiàn)。

然而徙融,一個更好的方法能不錯地近似整個集成的預測洒缀,且只需一個前向傳播的代價。要做到這一點,我們改用集成成員預測分布的幾何平均而不是算術平均树绩。通過幾何平均直接定義的非標準化概率分布由下式給出:

\tilde{p}_{\text {ensemble}}(y | \boldsymbol{x})=\sqrt[2^d]{\prod_{\mu} p(y | \boldsymbol{x}, \boldsymbol{\mu})}

其中d是可被丟棄的單元數(shù)萨脑。

為了作出預測,我們必須重新標準化集成:

p_{\text {ensemble}}(y | \boldsymbol{x})=\frac{\tilde{p}_{\text {ensemble}}(y | \boldsymbol{x})}{\sum_{y^{\prime}} \tilde{p}_{\text {ensemble}}\left(y^{\prime} | \boldsymbol{x}\right)}

涉及Dropout的一個重要觀點 (Hinton et al., 2012c) 是饺饭,我們可以通過評估模型中p(y | x)來近似p_{ensemble}:該模型具有所有單元渤早,但我們將單元i的輸出的權重乘以單元i的被包含概率。這個修改的動機是得到從該單元輸出的正確期望值瘫俊。我們把這種方法稱為權重比例推斷規(guī)則(weight scaling inference rule)鹊杖。目前還沒有在深度非線性網(wǎng)絡上對這種近似推斷規(guī)則的準確性作任何理論分析,但經(jīng)驗上表現(xiàn)得很好扛芽。

因為我們通常使用0.5的包含概率骂蓖,權重比例規(guī)則一般相當于在訓練結束后將權重除2,然后像平常一樣使用模型川尖。我們的目標是確保在測試時一個單元的期望總輸入與在訓練時該單元的期望總輸入是大致相同的(即使近半單位在訓練時丟失)登下。

總之,在訓練時叮喳,每個神經(jīng)單元以概率p被保留被芳;則在測試階段,每個神經(jīng)單元都是存在的馍悟,權重參數(shù)w要乘以p畔濒,成為pw。測試時需要乘上p的原因:若隱藏層的一個神經(jīng)元在dropout前輸出是x锣咒,則dropout后期望值是E=p x+(1-p) 0=px侵状。而在測試時該神經(jīng)元總是激活,為了保持同樣的輸出期望值并使下一層也得到同樣的結果宠哄,需要調(diào)整x→px壹将。

一個關于Dropout的重要見解是,通過隨機行為訓練網(wǎng)絡并平均多個隨機決定進行預測毛嫉,實現(xiàn)了一種參數(shù)共享的Bagging形式诽俯。早些時候,我們將Dropout描述為通過包括或排除單元形成模型集成的Bagging承粤。然而暴区,這種參數(shù)共享策略不一定要基于包括和排除。原則上辛臊,任何一種隨機的修改都是可接受的仙粱。我們可以認為由向量\mu參數(shù)化的任何形式的修改,是對\mu所有可能的值訓練p(y | x,\mu)的集成彻舰。例如\mu可以是實值伐割。Srivastava et al. (2014) 表明候味,權重乘以\mu\sim N (1, I) 比基于二值掩碼Dropout表現(xiàn)得更好。由于E[\mu] = 1隔心,標準網(wǎng)絡自動實現(xiàn)集成的近似推斷白群,而不需要權重比例推斷規(guī)則。

更進一步的Dropout觀點認為硬霍,Dropout不僅僅是訓練一個Bagging的集成模型帜慢,并且是共享隱藏單元的集成模型。這意味著無論其他隱藏單元是否在模型中唯卖,每個隱藏單元必須都能夠表現(xiàn)良好粱玲。隱藏單元必須準備好進行模型之間的交換和互換。Hintonet al. (2012d) 由生物學的想法受到啟發(fā):有性繁殖涉及到兩個不同生物體之間交換基因拜轨,進化產(chǎn)生的壓力使得基因不僅是良好的而且要準備好不同有機體之間的交換抽减。這樣的基因和這些特點對環(huán)境的變化是非常穩(wěn)健的,因為它們一定會正確適應任何一個有機體或模型不尋常的特性撩轰。因此Dropout正則化每個隱藏單元不僅是一個很好的特征胯甩,更要在許多情況下是良好的特征昧廷。

Dropout強大的大部分原因來自施加到隱藏單元的掩碼噪聲堪嫂,了解這一事實是重要的。這可以看作是對輸入內(nèi)容的信息高度智能化木柬、自適應破壞的一種形式皆串,而不是對輸入原始值的破壞。例如眉枕,如果模型學得通過鼻檢測臉的隱藏單元 恶复,那么丟失對應于擦除圖像中有鼻子的信息。模型必須學習另一種 速挑,要么是鼻子存在的冗余編碼谤牡,要么是像嘴這樣的臉部的另一特征。傳統(tǒng)的噪聲注入技術姥宝,在輸入端加非結構化的噪聲不能夠隨機地從臉部圖像中抹去關于鼻子的信息翅萤,除非噪聲的幅度大到幾乎能抹去圖像中所有的信息。Dropout破壞提取的特征而不是原始值腊满,讓破壞過程充分利用該模型迄今獲得的關于輸入分布的所有知識套么。

13、對抗訓練

在許多情況下碳蛋,神經(jīng)網(wǎng)絡在獨立同分布的測試集上進行評估已經(jīng)達到了人類表現(xiàn)胚泌。因此,我們自然要懷疑這些模型在這些任務上是否獲得了真正的人類層次的理解肃弟。為了探索網(wǎng)絡對底層任務的理解層次玷室,我們可以探索這個模型錯誤分類的例子零蓉。Szegedy et al. (2014b) 發(fā)現(xiàn),在精度達到人類水平的神經(jīng)網(wǎng)絡上通過優(yōu)化過程故意構造數(shù)據(jù)點穷缤,其上的誤差率接近100%壁公,模型在這個輸入點x^{′}的輸出與附近的數(shù)據(jù)點x非常不同。在許多情況下绅项,x^{′}x非常近似紊册,人類觀察者不會察覺原始樣本和對抗樣本(adversarial example)之間的差異,但是網(wǎng)絡會作出非常不同的預測快耿。它們在正則化的背景下很有意思囊陡,因為我們可以通過對抗訓練(adversarial training)減少原有獨立同分布的測試集的錯誤率——在對抗擾動的訓練集樣本上訓練網(wǎng)絡。

Goodfellow et al. (2014b) 表明掀亥,這些對抗樣本的主要原因之一是過度線性撞反。神經(jīng)網(wǎng)絡主要是基于線性塊構建的。因此在一些實驗中搪花,它們實現(xiàn)的整體函數(shù)被證明是高度線性的遏片。這些線性函數(shù)很容易優(yōu)化。不幸的是撮竿,如果一個線性函數(shù)具有許多輸入吮便,那么它的值可以非常迅速地改變。如果我們用?改變每個輸入幢踏,那么權重為w的線性函數(shù)可以改變?||w||_1之多髓需,如果w是高維的這會是一個非常大的數(shù)。對抗訓練通過鼓勵網(wǎng)絡在訓練數(shù)據(jù)附近的局部區(qū)域恒定來限制這一高度敏感的局部線性行為房蝉。這可以被看作是一種明確地向監(jiān)督神經(jīng)網(wǎng)絡引入局部恒定先驗的方法僚匆。

對抗樣本也提供了一種實現(xiàn)半監(jiān)督學習的方法。在與數(shù)據(jù)集中的標簽不相關聯(lián)的點x處搭幻,模型本身為其分配一些標簽\hat{y}咧擂。模型的標記\hat{y}未必是真正的標簽,但如果模型是高品質(zhì)的檀蹋,那么\hat{y}提供正確標簽的可能性很大松申。我們可以搜索一個對抗樣本x^{'},導致分類器輸出一個標簽y^{′}y^{′} \neq \hat{y}续扔。不使用真正的標簽攻臀,而是由訓練好的模型提供標簽產(chǎn)生的對抗樣本被稱為虛擬對抗樣本(virtual adversarial example)。我們可以訓練分類器為xx^{'}分配相同的標簽纱昧。這鼓勵分類器學習一個沿著未標簽數(shù)據(jù)所在流形上任意微小變化都很魯棒的函數(shù)刨啸。驅(qū)動這種方法的假設是,不同的類通常位于分離的流形上识脆,并且小擾動不會使數(shù)據(jù)點從一個類的流形跳到另一個類的流形上设联。

最后編輯于
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末善已,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子离例,更是在濱河造成了極大的恐慌换团,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,039評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件宫蛆,死亡現(xiàn)場離奇詭異艘包,居然都是意外死亡,警方通過查閱死者的電腦和手機耀盗,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,426評論 3 395
  • 文/潘曉璐 我一進店門想虎,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人叛拷,你說我怎么就攤上這事舌厨。” “怎么了忿薇?”我有些...
    開封第一講書人閱讀 165,417評論 0 356
  • 文/不壞的土叔 我叫張陵裙椭,是天一觀的道長。 經(jīng)常有香客問我署浩,道長揉燃,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,868評論 1 295
  • 正文 為了忘掉前任瑰抵,我火速辦了婚禮你雌,結果婚禮上器联,老公的妹妹穿的比我還像新娘二汛。我一直安慰自己,他們只是感情好拨拓,可當我...
    茶點故事閱讀 67,892評論 6 392
  • 文/花漫 我一把揭開白布肴颊。 她就那樣靜靜地躺著,像睡著了一般渣磷。 火紅的嫁衣襯著肌膚如雪婿着。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,692評論 1 305
  • 那天醋界,我揣著相機與錄音竟宋,去河邊找鬼。 笑死形纺,一個胖子當著我的面吹牛丘侠,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播逐样,決...
    沈念sama閱讀 40,416評論 3 419
  • 文/蒼蘭香墨 我猛地睜開眼蜗字,長吁一口氣:“原來是場噩夢啊……” “哼打肝!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起挪捕,我...
    開封第一講書人閱讀 39,326評論 0 276
  • 序言:老撾萬榮一對情侶失蹤粗梭,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后级零,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體断医,經(jīng)...
    沈念sama閱讀 45,782評論 1 316
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,957評論 3 337
  • 正文 我和宋清朗相戀三年奏纪,在試婚紗的時候發(fā)現(xiàn)自己被綠了孩锡。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,102評論 1 350
  • 序言:一個原本活蹦亂跳的男人離奇死亡亥贸,死狀恐怖躬窜,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情炕置,我是刑警寧澤荣挨,帶...
    沈念sama閱讀 35,790評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站朴摊,受9級特大地震影響默垄,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜甚纲,卻給世界環(huán)境...
    茶點故事閱讀 41,442評論 3 331
  • 文/蒙蒙 一口锭、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧介杆,春花似錦鹃操、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,996評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至赴背,卻和暖如春椰拒,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背凰荚。 一陣腳步聲響...
    開封第一講書人閱讀 33,113評論 1 272
  • 我被黑心中介騙來泰國打工燃观, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人便瑟。 一個月前我還...
    沈念sama閱讀 48,332評論 3 373
  • 正文 我出身青樓缆毁,卻偏偏與公主長得像,于是被迫代替她去往敵國和親胳徽。 傳聞我的和親對象是個殘疾皇子积锅,可洞房花燭夜當晚...
    茶點故事閱讀 45,044評論 2 355

推薦閱讀更多精彩內(nèi)容