權(quán)重衰退(weight decay)與暫退法(Dropout)

模型的過擬合

將模型在訓(xùn)練數(shù)據(jù)上擬合的比在潛在分布中更接近的現(xiàn)象稱為過擬合(overfitting)卡辰,出現(xiàn)這種現(xiàn)象的主要原因是訓(xùn)練數(shù)據(jù)中存在噪音或者訓(xùn)練數(shù)據(jù)太少拱绑。

不同的分類方式

可以看出在a中雖然完全的擬合了樣本數(shù)據(jù),但對(duì)于b中的測(cè)試數(shù)據(jù)分類準(zhǔn)確度很差猎拨。而c雖然沒有完全擬合樣本數(shù)據(jù),但在d中對(duì)于測(cè)試數(shù)據(jù)的分類準(zhǔn)確度卻很高红省。過擬合問題往往是由于訓(xùn)練數(shù)據(jù)少等原因造成的。

所以解決過擬合的方法之一就是增加數(shù)據(jù)量進(jìn)而增加訓(xùn)練的數(shù)據(jù)量吧恃。除了增加數(shù)據(jù)量以外,還可以通過權(quán)重衰退和dropout來解決這個(gè)問題。

權(quán)重衰退

在訓(xùn)練參數(shù)化機(jī)器學(xué)習(xí)模型時(shí)蝇闭, 權(quán)重衰減(weight decay)是最廣泛使用的正則化的技術(shù)之一, 它通常也被稱為
L2正則化.一種簡(jiǎn)單的方法是通過線性函數(shù) f(x)=wx,中的權(quán)重向量的某個(gè)范數(shù)來度量其復(fù)雜性丁眼, 例如||w||^2
要保證權(quán)重向量比較小苞七, 最常用方法是將其范數(shù)作為懲罰項(xiàng)加到最小化損失的問題中。 將原來的訓(xùn)練目標(biāo)最小化訓(xùn)練標(biāo)簽上的預(yù)測(cè)損失蹂风, 調(diào)整為最小化預(yù)測(cè)損失和懲罰項(xiàng)之和。

硬性限制W

使用均方范數(shù)作為硬性限制:直接限制W的范數(shù)小于某個(gè)值

  • 通常不限制b惠啄,因?yàn)閎只是影響曲線的上下平移任内,對(duì)曲線的形狀沒有實(shí)際作用撵渡。
  • θ越小,意味著這個(gè)正則項(xiàng)越強(qiáng)死嗦。

柔性限制W

性回歸例子趋距。 我們的損失由下式給出:

L(\mathbf{w}, b) = \frac{1}{n}\sum_{i=1}^n \frac{1}{2}\left(\mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)}\right)^2

使用均方范數(shù)作為柔性限制:對(duì)于每個(gè)θ ,都可以找到一個(gè)λ 使得之前的目標(biāo)函數(shù)等價(jià)于下式:

L(\mathbf{w}, b) + \frac{\lambda}{2} \|\mathbf{w}\|^2,

超參數(shù)λ 控制了正則項(xiàng)的重要程度

  • λ =0:無作用
  • λ → ∞:表示w*→0


簡(jiǎn)潔實(shí)現(xiàn)

由于權(quán)重衰減在神經(jīng)網(wǎng)絡(luò)優(yōu)化中很常用越除, 深度學(xué)習(xí)框架為了便于我們使用權(quán)重衰減节腐, 將權(quán)重衰減集成到優(yōu)化算法中,以便與任何損失函數(shù)結(jié)合使用摘盆。 此外翼雀,這種集成還有計(jì)算上的好處, 允許在不增加任何額外的計(jì)算開銷的情況下向算法中添加權(quán)重衰減孩擂。 由于更新的權(quán)重衰減部分僅依賴于每個(gè)參數(shù)的當(dāng)前值狼渊, 因此優(yōu)化器必須至少接觸每個(gè)參數(shù)一次。

在下面的代碼中肋殴,我們?cè)趯?shí)例化優(yōu)化器時(shí)直接通過weight_decay指定weight decay超參數(shù)囤锉。 默認(rèn)情況下,PyTorch同時(shí)衰減權(quán)重和偏移护锤。 這里我們只為權(quán)重設(shè)置了weight_decay官地,所以偏置參數(shù)b不會(huì)衰減。

def train_concise(wd):
    net = nn.Sequential(nn.Linear(num_inputs, 1))
    for param in net.parameters():
        param.data.normal_()
    loss = nn.MSELoss(reduction='none')
    num_epochs, lr = 100, 0.003
    # 偏置參數(shù)沒有衰減
    trainer = torch.optim.SGD([
        {"params":net[0].weight,'weight_decay': wd},
        {"params":net[0].bias}], lr=lr)
    animator = d2l.Animator(xlabel='epochs', ylabel='loss', yscale='log',
                            xlim=[5, num_epochs], legend=['train', 'test'])
    for epoch in range(num_epochs):
        for X, y in train_iter:
            trainer.zero_grad()
            l = loss(net(X), y)
            l.mean().backward()
            trainer.step()
        if (epoch + 1) % 5 == 0:
            animator.add(epoch + 1,
                         (d2l.evaluate_loss(net, train_iter, loss),
                          d2l.evaluate_loss(net, test_iter, loss)))
    print('w的L2范數(shù):', net[0].weight.norm().item())

暫退法(Dropout)

當(dāng)面對(duì)更多的特征而樣本不足時(shí)烙懦,線性模型往往會(huì)過擬合驱入。 相反,當(dāng)給出更多樣本而不是特征,通常線性模型不會(huì)過擬合亏较。 不幸的是莺褒,線性模型泛化的可靠性是有代價(jià)的。 簡(jiǎn)單地說雪情,線性模型沒有考慮到特征之間的交互作用遵岩。 對(duì)于每個(gè)特征,線性模型必須指定正的或負(fù)的權(quán)重巡通,而忽略其他特征尘执。

然后在2014年,斯里瓦斯塔瓦等人 (Srivastava et al., 2014) 就如何將畢曉普的想法應(yīng)用于網(wǎng)絡(luò)的內(nèi)部層提出了一個(gè)想法: 在訓(xùn)練過程中宴凉,他們建議在計(jì)算后續(xù)層之前向網(wǎng)絡(luò)的每一層注入噪聲誊锭。 因?yàn)楫?dāng)訓(xùn)練一個(gè)有多層的深層網(wǎng)絡(luò)時(shí),注入噪聲只會(huì)在輸入-輸出映射上增強(qiáng)平滑性弥锄。

這個(gè)想法被稱為暫退法(dropout)丧靡。 暫退法在前向傳播過程中,計(jì)算每一內(nèi)部層的同時(shí)注入噪聲籽暇,這已經(jīng)成為訓(xùn)練神經(jīng)網(wǎng)絡(luò)的常用技術(shù)戒悠。 這種方法之所以被稱為暫退法,因?yàn)槲覀儚谋砻嫔峡词窃谟?xùn)練過程中丟棄(drop out)一些神經(jīng)元。 在整個(gè)訓(xùn)練過程的每一次迭代中捏顺,標(biāo)準(zhǔn)暫退法包括在計(jì)算下一層之前將當(dāng)前層中的一些節(jié)點(diǎn)置零幅骄。

在標(biāo)準(zhǔn)暫退法正則化中拆座,通過按保留(未丟棄)的節(jié)點(diǎn)的分?jǐn)?shù)進(jìn)行規(guī)范化來消除每一層的偏差。 換言之孕索,每個(gè)中間活性值h以暫退概率p由隨機(jī)變量h'替換搞旭,如下所示:
\begin{split}\begin{aligned} h' = \begin{cases} 0 & \text{ probability } p \\ \frac{h}{1-p} & \text{ else } \end{cases} \end{aligned}\end{split}

根據(jù)此模型的設(shè)計(jì)肄渗,其期望值保持不變翎嫡,即E[h'] = h

dropout前后的多層感知機(jī)

圖中表示1個(gè)隱藏層和5個(gè)隱藏單元的多層感知機(jī),當(dāng)我們將暫退法應(yīng)用到隱藏層具伍,以p的概率將隱藏單元置為零時(shí)沿猜, 結(jié)果可以看作一個(gè)只包含原始神經(jīng)元子集的網(wǎng)絡(luò)啼肩。刪除了h_2h_5衙伶, 因此輸出的計(jì)算不再依賴于h_2h_5,并且它們各自的梯度在執(zhí)行反向傳播時(shí)也會(huì)消失赦拘。 這樣芬沉,輸出層的計(jì)算不能過度依賴于h_1h_5中的任何一個(gè)元素丸逸。

簡(jiǎn)潔實(shí)現(xiàn)

對(duì)于深度學(xué)習(xí)框架的高級(jí)API黄刚,我們只需在每個(gè)全連接層之后添加一個(gè)Dropout層, 將暫退概率作為唯一的參數(shù)傳遞給它的構(gòu)造函數(shù)涛救。 在訓(xùn)練時(shí)业扒,Dropout層將根據(jù)指定的暫退概率隨機(jī)丟棄上一層的輸出(相當(dāng)于下一層的輸入)程储。 在測(cè)試時(shí)逆甜,Dropout層僅傳遞數(shù)據(jù)交煞。

net = nn.Sequential(nn.Flatten(),
        nn.Linear(784, 256),
        nn.ReLU(),
        # 在第一個(gè)全連接層之后添加一個(gè)dropout層
        nn.Dropout(dropout1),
        nn.Linear(256, 256),
        nn.ReLU(),
        # 在第二個(gè)全連接層之后添加一個(gè)dropout層
        nn.Dropout(dropout2),
        nn.Linear(256, 10))

def init_weights(m):
    if type(m) == nn.Linear:
        nn.init.normal_(m.weight, std=0.01)

net.apply(init_weights);

參考

https://zh-v2.d2l.ai/

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末素征,一起剝皮案震驚了整個(gè)濱河市御毅,隨后出現(xiàn)的幾起案子怜珍,更是在濱河造成了極大的恐慌酥泛,老刑警劉巖,帶你破解...
    沈念sama閱讀 217,657評(píng)論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異捶索,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)辅甥,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,889評(píng)論 3 394
  • 文/潘曉璐 我一進(jìn)店門肆氓,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人捐凭,你說我怎么就攤上這事凳鬓。” “怎么了垦梆?”我有些...
    開封第一講書人閱讀 164,057評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)印蓖。 經(jīng)常有香客問我赦肃,道長(zhǎng)公浪,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,509評(píng)論 1 293
  • 正文 為了忘掉前任厅各,我火速辦了婚禮队塘,結(jié)果婚禮上卫旱,老公的妹妹穿的比我還像新娘顾翼。我一直安慰自己,他們只是感情好灸芳,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,562評(píng)論 6 392
  • 文/花漫 我一把揭開白布烙样。 她就那樣靜靜地躺著谒获,像睡著了一般壁却。 火紅的嫁衣襯著肌膚如雪展东。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,443評(píng)論 1 302
  • 那天权悟,我揣著相機(jī)與錄音峦阁,去河邊找鬼拇派。 笑死件豌,一個(gè)胖子當(dāng)著我的面吹牛控嗜,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播曾掂,決...
    沈念sama閱讀 40,251評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼珠洗,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼许蓖!你這毒婦竟也來了调衰?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,129評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎赃额,沒想到半個(gè)月后跳芳,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,561評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡饶米,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,779評(píng)論 3 335
  • 正文 我和宋清朗相戀三年檬输,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了丧慈。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片逃默。...
    茶點(diǎn)故事閱讀 39,902評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖软吐,靈堂內(nèi)的尸體忽然破棺而出凹耙,到底是詐尸還是另有隱情肖抱,我是刑警寧澤异旧,帶...
    沈念sama閱讀 35,621評(píng)論 5 345
  • 正文 年R本政府宣布欲险,位于F島的核電站匹涮,受9級(jí)特大地震影響然低,放射性物質(zhì)發(fā)生泄漏雳攘。R本人自食惡果不足惜带兜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,220評(píng)論 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望吨灭。 院中可真熱鬧刚照,春花似錦、人聲如沸喧兄。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,838評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至浑彰,卻和暖如春恭理,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背郭变。 一陣腳步聲響...
    開封第一講書人閱讀 32,971評(píng)論 1 269
  • 我被黑心中介騙來泰國(guó)打工颜价, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人诉濒。 一個(gè)月前我還...
    沈念sama閱讀 48,025評(píng)論 2 370
  • 正文 我出身青樓茄猫,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親勇劣。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,843評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容