PyTorch Lightning 加速網(wǎng)絡(luò)訓(xùn)練

轉(zhuǎn)載于:https://mp.weixin.qq.com/s/WNRz8D9FOlZqTdcjm1usjw
PyTorch Lightning :https://github.com/williamFalcon/pytorch-lightning/projects
用戶文檔:https://williamfalcon.github.io/pytorch-lightning/

1. 介紹

2. DataLoader

3. DataLoaders中的進(jìn)程數(shù)

  • 加快速度的第二個(gè)秘訣在于允許批量并行加載。所以悲敷,你可以一次加載許多批量究恤,而不是一次加載一個(gè)。
# slowloader = DataLoader(dataset, batch_size=32, shuffle=True)
2# fast (use 10 workers)loader = DataLoader(dataset, batch_size=32, shuffle=True, num_workers=10)

4.批尺寸

  • 在開(kāi)始下一步優(yōu)化步驟之前后德,將批量大小調(diào)高到CPU內(nèi)存或GPU內(nèi)存允許的最大值部宿。接下來(lái)的部分將著重于減少內(nèi)存占用,這樣就可以繼續(xù)增加批尺寸瓢湃。記住理张,你很可能需要再次更新學(xué)習(xí)率。如果將批尺寸增加一倍绵患,最好將學(xué)習(xí)速度也提高一倍雾叭。

5.累積梯度

  • 假如已經(jīng)最大限度地使用了計(jì)算資源,而批尺寸仍然太低(假設(shè)為8)落蝙,那我們則需為梯度下降模擬更大的批尺寸织狐,以供精準(zhǔn)估計(jì)。
  • 假設(shè)想讓批尺寸達(dá)到128筏勒。然后移迫,在執(zhí)行單個(gè)優(yōu)化器步驟前,將執(zhí)行16次前向和后向傳播(批量大小為8)管行。
# clear last stepoptimizer.zero_grad()
2
3# 16 accumulated gradient stepsscaled_loss = 0for accumulated_step_i in range(16):      out = model.forward()     loss = some_loss(out,y)         loss.backward()
4
5       scaled_loss += loss.item()
6
7# update weights after 8 steps. effective batch = 8*16optimizer.step()
8
9# loss is now scaled up by the number of accumulated batchesactual_loss = scaled_loss / 16
  • 而在Lightning中厨埋,這些已經(jīng)自動(dòng)執(zhí)行了。只需設(shè)置標(biāo)記:
trainer = Trainer(accumulate_grad_batches=16)
trainer.fit(model)

https://williamfalcon.github.io/pytorch-lightning/Trainer/Training%20Loop/?source=post_page---------------------------#accumulated-gradients

6. 保留計(jì)算圖

  • 撐爆內(nèi)存很簡(jiǎn)單捐顷,只要不釋放指向計(jì)算圖形的指針揽咕,比如……為記錄日志保存loss悲酷。
losses = []
...losses.append(loss)
print(f current loss: {torch.mean(losses) })
  • 上述的問(wèn)題在于,loss仍然有一個(gè)圖形副本亲善。在這種情況中设易,可用.item()來(lái)釋放它。
# badlosses.append(loss)
# goodlosses.append(loss.item())
  • Lightning會(huì)特別注意蛹头,讓其無(wú)法保留圖形副本

https://github.com/williamFalcon/pytorch-lightning/blob/master/pytorch_lightning/models/trainer.py?source=post_page---------------------------#L767-L768

7.轉(zhuǎn)至單GPU

  • 一旦完成了前面的步驟顿肺,就可以進(jìn)入GPU訓(xùn)練了。GPU的訓(xùn)練將對(duì)許多GPU核心上的數(shù)學(xué)計(jì)算進(jìn)行并行處理渣蜗。能加速多少取決于使用的GPU類(lèi)型屠尊。個(gè)人使用的話,推薦使用2080Ti耕拷,公司使用的話可用V100讼昆。
  • 剛開(kāi)始你可能會(huì)覺(jué)得壓力很大,但其實(shí)只需做兩件事: 1)將你的模型移動(dòng)到GPU上骚烧;2)在用其運(yùn)行數(shù)據(jù)時(shí)浸赫,把數(shù)據(jù)導(dǎo)至GPU中。
# put model on GPUmodel.cuda(0)
# put data on gpu (cuda on a variable returns a cuda copy) x = x.cuda(0)
# runs on GPU nowmodel(x)
  • 如果使用Lightning赃绊,則不需要對(duì)代碼做任何操作既峡。只需設(shè)置標(biāo)記ask lightning to use gpu 0 for trainingtrainer = Trainer(gpus=[0])trainer.fit(model)

https://williamfalcon.github.io/pytorch-lightning/Trainer/Distributed%20training/?source=post_page---------------------------#single-gpu

  • 在GPU進(jìn)行訓(xùn)練時(shí),要注意限制CPU和GPU之間的傳輸量碧查。
# expensivex = x.cuda(0)
# very expensivex = x.cpu()x = x.cuda(0)
  • 例如运敢,如果耗盡了內(nèi)存,不要為了省內(nèi)存忠售,將數(shù)據(jù)移回CPU传惠。嘗試用其他方式優(yōu)化代碼,或者在用這種方法之前先跨GPUs分配代碼稻扬。此外還要注意進(jìn)行強(qiáng)制GPUs同步的操作涉枫。例如清除內(nèi)存緩存。
# really bad idea.Stops all the GPUs until they all catch up
torch.cuda.empty_cache()
  • 但是如果使用Lightning腐螟,那么只有在定義Lightning模塊時(shí)可能會(huì)出現(xiàn)這種問(wèn)題。Lightning特別注意避免此類(lèi)錯(cuò)誤困后。

8. 16位混合精度訓(xùn)練

  • 16位精度可以有效地削減一半的內(nèi)存占用乐纸。大多數(shù)模型都是用32位精度數(shù)進(jìn)行訓(xùn)練的。然而最近的研究發(fā)現(xiàn)摇予,使用16位精度汽绢,模型也可以很好地工作〔啻鳎混合精度指的是宁昭,用16位訓(xùn)練一些特定的模型跌宛,而權(quán)值類(lèi)的用32位訓(xùn)練。
  • 要想在Pytorch中用16位精度,先從NVIDIA中安裝 apex 圖書(shū)館并對(duì)你的模型進(jìn)行這些更改积仗。
# enable 16-bit on the model and the optimize rmodel, 
optimizers = amp.initialize(model, optimizers, opt_level= O2 )
# when doing .backward, let amp do it so it can scale the loss 
with amp.scale_loss(loss, optimizer) as scaled_loss:                         
      scaled_loss.backward()
trainer = Trainer(amp_level=’O2 , use_amp=False)trainer.fit(model)

9.移至多GPU

  • 分批量訓(xùn)練
    ??第一種方法叫做分批量訓(xùn)練。這一策略將模型復(fù)制到每個(gè)GPU上渺氧,而每個(gè)GPU會(huì)分到該批量的一部分旨涝。
 # copy model on each GPU and give a fourth of the batch to each
model = DataParallel(model, devices=[0, 1, 2 ,3])
# out has 4 outputs (one for each gpu)
out = model(x.cuda(0))
  • 在Lightning中,可以直接指示訓(xùn)練器增加GPU數(shù)量侣背,而無(wú)需完成上述任何操作白华。
# ask lightning to use 4 GPUs for training
trainer = Trainer(gpus=[0, 1, 2, 3])trainer.fit(model)
  • 分模型訓(xùn)練
    ??將模型的不同部分分配給不同的GPU,按順序分配批量秃踩。有時(shí)模型可能太大衬鱼,內(nèi)存不足以支撐。比如憔杨,帶有編碼器和解碼器的Sequence to Sequence模型在生成輸出時(shí)可能會(huì)占用20gb的內(nèi)存鸟赫。在這種情況下,我們希望把編碼器和解碼器放在單獨(dú)的GPU上消别。
# each model is sooo big we can t fit both in memory
 encoder_rnn.cuda(0)
 decoder_rnn.cuda(1)
 # run input through encoder on GPU 0
 out = encoder_rnn(x.cuda(0))
# run output through decoder on the next GPU
out = decoder_rnn(x.cuda(1))
# normally we want to bring all outputs back to GPU 0
out = out.cuda(0)
  • 對(duì)于這種類(lèi)型的訓(xùn)練抛蚤,無(wú)需將Lightning訓(xùn)練器分到任何GPU上。與之相反寻狂,只要把自己的模塊導(dǎo)入正確的GPU的Lightning模塊中:
class MyModule(LightningModule):
      def __init__():         
          self.encoder = RNN(...)        
          self.decoder = RNN(...)
    def forward(x):
        # models won t be moved after the first forward because         
        # they are already on the correct GPUs        
        self.encoder.cuda(0)        
        self.decoder.cuda(1)        
        out = self.encoder(x)        
        out = self.decoder(out.cuda(1))
# don t pass GPUs to trainer 
model = MyModule()
trainer = Trainer()
trainer.fit(model)
  • 混合兩種訓(xùn)練方法
    ??在上面的例子中岁经,編碼器和解碼器仍然可以從并行化每個(gè)操作中獲益。我們現(xiàn)在可以更具創(chuàng)造力了蛇券。
# change these lines
self.encoder = RNN(...)
self.decoder = RNN(...)
# to these# now each RNN is based on a different gpu set
self.encoder = DataParallel(self.encoder, devices=[0, 1, 2, 3])
self.decoder = DataParallel(self.encoder, devices=[4, 5, 6, 7])
# in forward...
out = self.encoder(x.cuda(0))
# notice inputs on first gpu in devices
out = self.decoder(out.cuda(4))  # <--- the 4 here
  • 使用多GPUs時(shí)需注意的事項(xiàng)
    ??如果該設(shè)備上已存在model.cuda()缀壤,那么它不會(huì)完成任何操作。
    ??始終輸入到設(shè)備列表中的第一個(gè)設(shè)備上纠亚。
    ??跨設(shè)備傳輸數(shù)據(jù)非常昂貴塘慕,不到萬(wàn)不得已不要這樣做。
    ??優(yōu)化器和梯度將存儲(chǔ)在GPU 0上蒂胞。因此图呢,GPU 0使用的內(nèi)存很可能比其他處理器大得多。

10.轉(zhuǎn)至多GPU階段(8+GPUs)

  • 每臺(tái)機(jī)器上的各GPU都可獲取一份模型的副本。每臺(tái)機(jī)器分得一部分?jǐn)?shù)據(jù)蛤织,并僅針對(duì)該部分?jǐn)?shù)據(jù)進(jìn)行訓(xùn)練赴叹。各機(jī)器彼此同步梯度。
  • 做到了這一步指蚜,就可以在幾分鐘內(nèi)訓(xùn)練Imagenet數(shù)據(jù)集了! 這沒(méi)有想象中那么難乞巧,但需要更多有關(guān)計(jì)算集群的知識(shí)。這些指令假定你正在集群上使用SLURM姚炕。
  • Pytorch在各個(gè)GPU上跨節(jié)點(diǎn)復(fù)制模型并同步梯度摊欠,從而實(shí)現(xiàn)多節(jié)點(diǎn)訓(xùn)練。因此柱宦,每個(gè)模型都是在各GPU上獨(dú)立初始化的些椒,本質(zhì)上是在數(shù)據(jù)的一個(gè)分區(qū)上獨(dú)立訓(xùn)練的,只是它們都接收來(lái)自所有模型的梯度更新掸刊。
  • 高級(jí)階段:
    ??在各GPU上初始化一個(gè)模型的副本(確保設(shè)置好種子免糕,使每個(gè)模型初始化到相同的權(quán)值,否則操作會(huì)失效)忧侧。
    ??將數(shù)據(jù)集分成子集石窑。每個(gè)GPU只在自己的子集上訓(xùn)練。
    ??On .backward() 所有副本都會(huì)接收各模型梯度的副本蚓炬。只有此時(shí)松逊,模型之間才會(huì)相互通信。
  • Pytorch有一個(gè)很好的抽象概念肯夏,叫做分布式數(shù)據(jù)并行處理经宏,它可以為你完成這一操作。要使用DDP(分布式數(shù)據(jù)并行處理)驯击,需要做4件事:
def tng_dataloader():     
    d = MNIST()

    # 4: Add distributed sampler     
    # sampler sends a portion of tng data to each machine     
    dist_sampler = DistributedSampler(dataset)     
    dataloader = DataLoader(d, shuffle=False, sampler=dist_sampler)

def main_process_entrypoint(gpu_nb):      
# 2: set up connections  between all gpus across all machines     
# all gpus connect to a single GPU "root"     
# the default uses env://
    world = nb_gpus * nb_nodes     
    dist.init_process_group("nccl", rank=gpu_nb, world_size=world)

   # 3: wrap model in DPP     
    torch.cuda.set_device(gpu_nb)     
    model.cuda(gpu_nb)     
    model = DistributedDataParallel(model, device_ids=[gpu_nb])

# train your model now...
if  __name__ ==  __main__ :     
    # 1: spawn number of processes     
    # your cluster will call main for each machine     
    mp.spawn(main_process_entrypoint, nprocs=8)
trainer = Trainer(nb_gpu_nodes=128, gpus=[0, 1, 2, 3, 4, 5, 6, 7])
  • Lightning還附帶了一個(gè)SlurmCluster管理器暇矫,可助你簡(jiǎn)單地提交SLURM任務(wù)的正確細(xì)節(jié)主之。

示例:https://github.com/williamFalcon/pytorch-lightning/blob/master/examples/new_project_templates/multi_node_cluster_template.py?source=post_page---------------------------#L103-L134

10.更快的多GPU單節(jié)點(diǎn)訓(xùn)練

  • 事實(shí)證明,分布式數(shù)據(jù)并行處理要比數(shù)據(jù)并行快得多,因?yàn)槠湮ㄒ坏耐ㄐ攀翘荻韧健R虼诵古簦詈糜梅植际綌?shù)據(jù)并行處理替換數(shù)據(jù)并行,即使只是在做單機(jī)訓(xùn)練。
  • 在Lightning中枉长,通過(guò)將distributed_backend設(shè)置為ddp(分布式數(shù)據(jù)并行處理)并設(shè)置GPU的數(shù)量冀续,這可以很容易實(shí)現(xiàn)琼讽。
# train on 4 gpus on the same machine MUCH faster than DataParallel
trainer = Trainer(distributed_backend= ddp , gpus=[0, 1, 2, 3])
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市洪唐,隨后出現(xiàn)的幾起案子钻蹬,更是在濱河造成了極大的恐慌,老刑警劉巖凭需,帶你破解...
    沈念sama閱讀 218,755評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件问欠,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡粒蜈,警方通過(guò)查閱死者的電腦和手機(jī)顺献,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,305評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)枯怖,“玉大人注整,你說(shuō)我怎么就攤上這事《认酰” “怎么了肿轨?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,138評(píng)論 0 355
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)蕊程。 經(jīng)常有香客問(wèn)我椒袍,道長(zhǎng),這世上最難降的妖魔是什么藻茂? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,791評(píng)論 1 295
  • 正文 為了忘掉前任驹暑,我火速辦了婚禮,結(jié)果婚禮上捌治,老公的妹妹穿的比我還像新娘岗钩。我一直安慰自己,他們只是感情好肖油,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,794評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布兼吓。 她就那樣靜靜地躺著,像睡著了一般森枪。 火紅的嫁衣襯著肌膚如雪视搏。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 51,631評(píng)論 1 305
  • 那天县袱,我揣著相機(jī)與錄音浑娜,去河邊找鬼。 笑死式散,一個(gè)胖子當(dāng)著我的面吹牛筋遭,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 40,362評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼漓滔,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼编饺!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起响驴,我...
    開(kāi)封第一講書(shū)人閱讀 39,264評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤透且,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后豁鲤,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體秽誊,經(jīng)...
    沈念sama閱讀 45,724評(píng)論 1 315
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,900評(píng)論 3 336
  • 正文 我和宋清朗相戀三年琳骡,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了锅论。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,040評(píng)論 1 350
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡日熬,死狀恐怖棍厌,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情竖席,我是刑警寧澤耘纱,帶...
    沈念sama閱讀 35,742評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站毕荐,受9級(jí)特大地震影響束析,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜憎亚,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,364評(píng)論 3 330
  • 文/蒙蒙 一员寇、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧第美,春花似錦蝶锋、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,944評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至别威,卻和暖如春躯舔,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背省古。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,060評(píng)論 1 270
  • 我被黑心中介騙來(lái)泰國(guó)打工粥庄, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人豺妓。 一個(gè)月前我還...
    沈念sama閱讀 48,247評(píng)論 3 371
  • 正文 我出身青樓惜互,卻偏偏與公主長(zhǎng)得像布讹,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子训堆,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,979評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容