Nvidia Apex安裝

降低訓練精度提高batch大小,512*512的圖片在8G的顯存上batch只能為1,2疏之,使用了apex后可以增大到10。只支持pytorch暇咆。

官網(wǎng)地址:NVIDIA/apex
官方說支持Ubuntu系統(tǒng)锋爪,Windows只是實驗性的,但是我在win10上也安裝成功了爸业。

前提

  1. 已安裝好CUDA和CUDNN其骄,且版本適配。

2.在安裝前先檢查一下扯旷,電腦的cuda版本和pytorch內(nèi)的cuda版本是否一樣拯爽,不一樣的話就把低版本的進行升級。

# 查看電腦的cuda版本钧忽、
>> nvcc -V
# pytorch內(nèi)的cuda版本
import torch
torch.version.cuda

安裝

按照官網(wǎng)的命令輸入即可

$ git clone https://github.com/NVIDIA/apex
$ cd apex
$ pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./

如果報錯出現(xiàn)什么pip 137..我不記得了
在保證cuda版本一致的前提下進入apex文件夾某抓,使用命令:python setup.py install 即可安裝成功

驗證安裝成功

from apex import amp

沒有報錯就是成功了。

Apex的使用

net = xxxNet()
net.cuda()
net.train()

params_low_lr = []
params_high_lr = []
for n, p in net.named_parameters():
    if 'encoder' in n:
        params_low_lr.append(p)
    else:
        params_high_lr.append(p)
opt = Adam([{'params': params_low_lr, 'lr': 5e-5},
                   {'params': params_high_lr, 'lr': 1e-4}], weight_decay=settings.WEIGHT_DECAY)
net, opt = amp.initialize(net, opt, opt_level="O1") # 這里要添加這句代碼
...
...
loss = ...
if not torch.isnan(loss):
    opt.zero_grad()
    with amp.scale_loss(loss, opt) as scaled_loss:
        scaled_loss.backward()   # loss要這么用
    opt.step()

當中斷后繼續(xù)訓練時

# Initialization
opt_level = 'O1'
model, optimizer = amp.initialize(model, optimizer, opt_level=opt_level)

# Train your model
...

# Save checkpoint
checkpoint = {
    'model': model.state_dict(),
    'optimizer': optimizer.state_dict(),
    'amp': amp.state_dict()
}
torch.save(checkpoint, 'amp_checkpoint.pt')
...

# Restore
model = ...
optimizer = ...
checkpoint = torch.load('amp_checkpoint.pt')

model, optimizer = amp.initialize(model, optimizer, opt_level=opt_level)
model.load_state_dict(checkpoint['model'])  # 注意惰瓜,load模型需要在amp.initialize之后!:嚎蟆崎坊!
optimizer.load_state_dict(checkpoint['optimizer'])
amp.load_state_dict(checkpoint['amp'])

# Continue training
···

用戶指定數(shù)據(jù)格式

amp.initialize(net, opt, opt_level=“O1”)

其中的opt-level參數(shù)是用戶指定采用何種數(shù)據(jù)格式做訓練的。

  • O0:純FP32訓練洲拇,可以作為accuracy的baseline奈揍;
  • O1:混合精度訓練(推薦使用)曲尸,根據(jù)黑白名單自動決定使用FP16(GEMM, 卷積)還是FP32(Softmax)進行計算。
  • O2:“幾乎FP16”混合精度訓練男翰,不存在黑白名單另患,除了Batch norm,幾乎都是用FP16計算蛾绎。
  • O3:純FP16訓練昆箕,很不穩(wěn)定,但是可以作為speed的baseline租冠;

溢出問題

相乘的操作鹏倘,16位*16位=32位,精度不會有大的影響顽爹,但16位+32位由于后面32位的數(shù)太小纤泵,會進行舍入只得到一個16位數(shù),影響較大镜粤,所以當涉及到“加法”時最好恢復到32位精度捏题,比如 sigmoid,softmax。
我們僅需在模型定義中肉渴,在構(gòu)造函數(shù)init中的某一個位置公荧。加上下面這段:

from apex import amp
class xxxNet(Module):
    def __init__(using_map=False)
        ...
        ...
        if using_amp:
             amp.register_float_function(torch, 'sigmoid')
             amp.register_float_function(torch, 'softmax')

用register_float_function指明后面的函數(shù)需要使用float類型。注意第二實參是string類型
和register_float_function相似的注冊函數(shù)還有

  • amp.register_half_function(module, function_name)
  • amp.register_float_function(module, function_name)
  • amp.register_promote_function(module, function_name)
    你必須在使用amp.initialize之前使用注冊函數(shù)黄虱,所以最好的位置就放在模型的構(gòu)造函數(shù)中

參考鏈接:
英偉達(NVIDIA)訓練深度學習模型神器APEX使用指南

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末稚矿,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子捻浦,更是在濱河造成了極大的恐慌晤揣,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,198評論 6 514
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件朱灿,死亡現(xiàn)場離奇詭異昧识,居然都是意外死亡,警方通過查閱死者的電腦和手機盗扒,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,334評論 3 398
  • 文/潘曉璐 我一進店門跪楞,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人侣灶,你說我怎么就攤上這事甸祭。” “怎么了褥影?”我有些...
    開封第一講書人閱讀 167,643評論 0 360
  • 文/不壞的土叔 我叫張陵池户,是天一觀的道長。 經(jīng)常有香客問我,道長校焦,這世上最難降的妖魔是什么赊抖? 我笑而不...
    開封第一講書人閱讀 59,495評論 1 296
  • 正文 為了忘掉前任,我火速辦了婚禮寨典,結(jié)果婚禮上氛雪,老公的妹妹穿的比我還像新娘。我一直安慰自己耸成,他們只是感情好报亩,可當我...
    茶點故事閱讀 68,502評論 6 397
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著墓猎,像睡著了一般捆昏。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上毙沾,一...
    開封第一講書人閱讀 52,156評論 1 308
  • 那天骗卜,我揣著相機與錄音,去河邊找鬼左胞。 笑死寇仓,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的烤宙。 我是一名探鬼主播遍烦,決...
    沈念sama閱讀 40,743評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼躺枕!你這毒婦竟也來了服猪?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,659評論 0 276
  • 序言:老撾萬榮一對情侶失蹤拐云,失蹤者是張志新(化名)和其女友劉穎罢猪,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體叉瘩,經(jīng)...
    沈念sama閱讀 46,200評論 1 319
  • 正文 獨居荒郊野嶺守林人離奇死亡膳帕,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,282評論 3 340
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了薇缅。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片危彩。...
    茶點故事閱讀 40,424評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖泳桦,靈堂內(nèi)的尸體忽然破棺而出汤徽,到底是詐尸還是另有隱情,我是刑警寧澤灸撰,帶...
    沈念sama閱讀 36,107評論 5 349
  • 正文 年R本政府宣布谒府,位于F島的核電站漆羔,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏狱掂。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,789評論 3 333
  • 文/蒙蒙 一亲轨、第九天 我趴在偏房一處隱蔽的房頂上張望趋惨。 院中可真熱鬧,春花似錦惦蚊、人聲如沸器虾。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,264評論 0 23
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽兆沙。三九已至,卻和暖如春莉掂,著一層夾襖步出監(jiān)牢的瞬間葛圃,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,390評論 1 271
  • 我被黑心中介騙來泰國打工憎妙, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留库正,地道東北人。 一個月前我還...
    沈念sama閱讀 48,798評論 3 376
  • 正文 我出身青樓厘唾,卻偏偏與公主長得像褥符,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子抚垃,可洞房花燭夜當晚...
    茶點故事閱讀 45,435評論 2 359