Pytorch中的學(xué)習(xí)率衰減方法

Pytorch 中的學(xué)習(xí)率調(diào)整方法

Pytorch中的學(xué)習(xí)率調(diào)整有兩種方式:

  1. 直接修改optimizer中的lr參數(shù);
  2. 利用lr_scheduler()提供的幾種衰減函數(shù)

1. 修改optimizer中的lr:

import torch
import matplotlib.pyplot as plt
%matplotlib inline
from torch.optim import *
import torch.nn as nn
class net(nn.Module):
    def __init__(self):
        super(net,self).__init__()
        self.fc = nn.Linear(1,10)
    def forward(self,x):
        return self.fc(x)
model = net()
LR = 0.01
optimizer = Adam(model.parameters(),lr = LR)
lr_list = []
for epoch in range(100):
    if epoch % 5 == 0:
        for p in optimizer.param_groups:
            p['lr'] *= 0.9
    lr_list.append(optimizer.state_dict()['param_groups'][0]['lr'])
plt.plot(range(100),lr_list,color = 'r')
手動(dòng)階梯式衰減

2. lr_scheduler

2.1 torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)

lr_lambda 會(huì)接收到一個(gè)int參數(shù):epoch迫靖,然后根據(jù)epoch計(jì)算出對(duì)應(yīng)的lr。如果設(shè)置多個(gè)lambda函數(shù)的話铣口,會(huì)分別作用于Optimizer中的不同的params_group

import numpy as np 
lr_list = []
model = net()
LR = 0.01
optimizer = Adam(model.parameters(),lr = LR)
lambda1 = lambda epoch:np.sin(epoch) / epoch
scheduler = lr_scheduler.LambdaLR(optimizer,lr_lambda = lambda1)
for epoch in range(100):
    scheduler.step()
    lr_list.append(optimizer.state_dict()['param_groups'][0]['lr'])
plt.plot(range(100),lr_list,color = 'r')
lambda自定義衰減

2.2 torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)

每個(gè)一定的epoch,lr會(huì)自動(dòng)乘以gamma

lr_list = []
model = net()
LR = 0.01
optimizer = Adam(model.parameters(),lr = LR)
scheduler = lr_scheduler.StepLR(optimizer,step_size=5,gamma = 0.8)
for epoch in range(100):
    scheduler.step()
    lr_list.append(optimizer.state_dict()['param_groups'][0]['lr'])
plt.plot(range(100),lr_list,color = 'r')
StepLR階梯式衰減

2.3 torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)

三段式lr,epoch進(jìn)入milestones范圍內(nèi)即乘以gamma垢揩,離開(kāi)milestones范圍之后再乘以gamma

這種衰減方式也是在學(xué)術(shù)論文中最常見(jiàn)的方式话侄,一般手動(dòng)調(diào)整也會(huì)采用這種方法亏推。

lr_list = []
model = net()
LR = 0.01
optimizer = Adam(model.parameters(),lr = LR)
scheduler = lr_scheduler.MultiStepLR(optimizer,milestones=[20,80],gamma = 0.9)
for epoch in range(100):
    scheduler.step()
    lr_list.append(optimizer.state_dict()['param_groups'][0]['lr'])
plt.plot(range(100),lr_list,color = 'r')
三段式衰減

2.4 torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma, last_epoch=-1)

每個(gè)epoch中l(wèi)r都乘以gamma

lr_list = []
model = net()
LR = 0.01
optimizer = Adam(model.parameters(),lr = LR)
scheduler = lr_scheduler.ExponentialLR(optimizer, gamma=0.9)
for epoch in range(100):
    scheduler.step()
    lr_list.append(optimizer.state_dict()['param_groups'][0]['lr'])
plt.plot(range(100),lr_list,color = 'r')
連續(xù)衰減

2.5 torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0, last_epoch=-1)

T_max 對(duì)應(yīng)1/2個(gè)cos周期所對(duì)應(yīng)的epoch數(shù)值

eta_min 為最小的lr值,默認(rèn)為0

lr_list = []
model = net()
LR = 0.01
optimizer = Adam(model.parameters(),lr = LR)
scheduler = lr_scheduler.CosineAnnealingLR(optimizer, T_max = 20)
for epoch in range(100):
    scheduler.step()
    lr_list.append(optimizer.state_dict()['param_groups'][0]['lr'])
plt.plot(range(100),lr_list,color = 'r')
余弦式調(diào)整

2.6 torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)

在發(fā)現(xiàn)loss不再降低或者acc不再提高之后年堆,降低學(xué)習(xí)率吞杭。各參數(shù)意義如下:

mode:'min'模式檢測(cè)metric是否不再減小,'max'模式檢測(cè)metric是否不再增大变丧;

factor: 觸發(fā)條件后lr*=factor芽狗;

patience:不再減小(或增大)的累計(jì)次數(shù)痒蓬;

verbose:觸發(fā)條件后print童擎;

threshold:只關(guān)注超過(guò)閾值的顯著變化;

threshold_mode:有rel和abs兩種閾值計(jì)算模式攻晒,rel規(guī)則:max模式下如果超過(guò)best(1+threshold)為顯著柔昼,min模式下如果低于best(1-threshold)為顯著;abs規(guī)則:max模式下如果超過(guò)best+threshold為顯著炎辨,min模式下如果低于best-threshold為顯著捕透;

cooldown:觸發(fā)一次條件后,等待一定epoch再進(jìn)行檢測(cè)碴萧,避免lr下降過(guò)速乙嘀;

min_lr:最小的允許lr;

eps:如果新舊lr之間的差異小與1e-8破喻,則忽略此次更新虎谢。

一起討論機(jī)器學(xué)習(xí)與Pytorch,可以加群747537854

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末曹质,一起剝皮案震驚了整個(gè)濱河市婴噩,隨后出現(xiàn)的幾起案子擎场,更是在濱河造成了極大的恐慌,老刑警劉巖几莽,帶你破解...
    沈念sama閱讀 218,682評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件迅办,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡章蚣,警方通過(guò)查閱死者的電腦和手機(jī)站欺,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,277評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)纤垂,“玉大人矾策,你說(shuō)我怎么就攤上這事∏吐伲” “怎么了贾虽?”我有些...
    開(kāi)封第一講書人閱讀 165,083評(píng)論 0 355
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)吼鱼。 經(jīng)常有香客問(wèn)我蓬豁,道長(zhǎng),這世上最難降的妖魔是什么蛉抓? 我笑而不...
    開(kāi)封第一講書人閱讀 58,763評(píng)論 1 295
  • 正文 為了忘掉前任庆尘,我火速辦了婚禮剃诅,結(jié)果婚禮上巷送,老公的妹妹穿的比我還像新娘。我一直安慰自己矛辕,他們只是感情好笑跛,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,785評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著聊品,像睡著了一般飞蹂。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上翻屈,一...
    開(kāi)封第一講書人閱讀 51,624評(píng)論 1 305
  • 那天陈哑,我揣著相機(jī)與錄音,去河邊找鬼伸眶。 笑死惊窖,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的厘贼。 我是一名探鬼主播界酒,決...
    沈念sama閱讀 40,358評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼嘴秸!你這毒婦竟也來(lái)了毁欣?” 一聲冷哼從身側(cè)響起庇谆,我...
    開(kāi)封第一講書人閱讀 39,261評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎凭疮,沒(méi)想到半個(gè)月后饭耳,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,722評(píng)論 1 315
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡哭尝,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,900評(píng)論 3 336
  • 正文 我和宋清朗相戀三年哥攘,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片材鹦。...
    茶點(diǎn)故事閱讀 40,030評(píng)論 1 350
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡逝淹,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出桶唐,到底是詐尸還是另有隱情栅葡,我是刑警寧澤,帶...
    沈念sama閱讀 35,737評(píng)論 5 346
  • 正文 年R本政府宣布尤泽,位于F島的核電站欣簇,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏坯约。R本人自食惡果不足惜熊咽,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,360評(píng)論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望闹丐。 院中可真熱鬧横殴,春花似錦、人聲如沸卿拴。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 31,941評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)堕花。三九已至文狱,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間缘挽,已是汗流浹背瞄崇。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 33,057評(píng)論 1 270
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留壕曼,地道東北人苏研。 一個(gè)月前我還...
    沈念sama閱讀 48,237評(píng)論 3 371
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像窝稿,于是被迫代替她去往敵國(guó)和親楣富。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,976評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容