pytorch深度學(xué)習(xí)單卡訓(xùn)練和多卡訓(xùn)練

單機(jī)單卡訓(xùn)練模式

 # 設(shè)置GPU參數(shù),是否使用GPU,使用那塊GPU
    if config.use_gpu and torch.cuda.is_available():
        device=torch.device('cuda',config.gpu_id)
    else:
        device=torch.device('cpu')
    # 檢查一下GPU是否可以使用
    print('GPU是否可用:'+str(torch.cuda.is_available()))

單機(jī)多卡訓(xùn)練模式

  • Single Machine Data Parallel(單機(jī)多卡模式)這個(gè)版本已經(jīng)淘汰


    image.png
from torch.nn.parallel import DataParallel

device_id=[0,1,2,3]
device=torch.device('cuda:{}'.format(device_id[0])) # 設(shè)置0號GPU是主GPU
model=model.to(device)
model=DataParallel(model,device_ids=device_id,output_device=device)

首先會(huì)把所有數(shù)據(jù)分發(fā)到列表上的GPU進(jìn)行訓(xùn)練凤优,然后再gather到主GPU計(jì)算loss

  • DistributedParallel(簡稱DDP,多進(jìn)程多卡訓(xùn)練)


    image.png

    代碼變成流程:

  • 1.初始化進(jìn)程組
torch.distributed.init rocess_group(backend="nccl", world_size=n_gpus,rank=args.local_rank)
# backend:進(jìn)程方式
# word_size:當(dāng)前這個(gè)GPU上有多少張卡
# rank:指定當(dāng)前進(jìn)程是在那個(gè)GPU上
  • 2.設(shè)置CUDA_VISIBLE_DEVICES環(huán)境變量
torch.cuda.set_device(args.local_rank)
  • 3.對模型進(jìn)行包裹
model = DistributedDataParallel(model.cuda(args.local_rank), device_ids=[args.local_rank])
  • 4.對每張卡的數(shù)據(jù)進(jìn)行分配
train_sampler = DistributedSampler(train_dataset)
# 源碼位于torch/utils/data/distributed.py
  • 5.將數(shù)據(jù)傳遞到dataload中,傳遞進(jìn)來的數(shù)據(jù)就不需要suffer了
  • 6.將數(shù)據(jù)復(fù)制到cuda上
data=data.cuda(args.local_rank)
  • 7.執(zhí)行命令(在使用ddp這種方式訓(xùn)練的時(shí)候,需要使用命令執(zhí)行)
python -m torch.distributed.launch--nproc_per_node=n_gpu train.py
  • 8.保存模型
torch.save在local_rank=O的位置進(jìn)行保存,同樣注意調(diào)用model.module.state_dict()
torch.load 注意map_location

注意事項(xiàng):

  • train.py中要有接受local_rank的參數(shù)選項(xiàng),launch會(huì)傳入這個(gè)參數(shù)
  • 每個(gè)進(jìn)程的batch_size應(yīng)該是一個(gè)GPU所需要的batch_size大小
  • 在每個(gè)周期開始處,調(diào)用train_sampler.set_epoch(epoch)可以使得數(shù)據(jù)充分打亂
  • 有了sampler,就不要在DataLoader中設(shè)置shuffle=True了

完整代碼

# 系統(tǒng)相關(guān)的
import argparse
import os

# 框架相關(guān)
import torch
from torch.utils.data import DataLoader
import torch.optim as optim
import torch.nn as nn
import os
# 自定義包
from BruceNRE.config import config
from BruceNRE.utils import make_seed,load_pkl
from BruceNRE.process import process
from BruceNRE.dataset import CustomDataset,collate_fn
from BruceNRE import models
from BruceNRE.trainer import train,validate

# 導(dǎo)入分布式訓(xùn)練依賴
import torch.distributed as dist
from torch.utils.data.distributed import DistributedSampler
from torch.nn.parallel import DistributedDataParallel


__Models__={
    "BruceCNN":models.BruceCNN
}

parser=argparse.ArgumentParser(description="關(guān)系抽取")
parser.add_argument("--model_name",type=str,default='BruceCNN',help='model name')
parser.add_argument('--local_rank',type=int,default=1,help='local device id on current node')



if __name__=="__main__":
# ====================關(guān)鍵代碼==================================
    os.environ["CUDA_VISIBLE_DEVICES"]="0,1,2,3"
    # 分布式訓(xùn)練初始化
    torch.distributed.init_process_group(backend="nccl")
    # 設(shè)置當(dāng)前的設(shè)備只用這張卡
    torch.cuda.set_device(args.local_rank)
    # 單機(jī)多卡:代表有幾塊GPU
    args.word_size=int(os.getenv("WORLD_SIZE",'1'))
    # 獲取當(dāng)前進(jìn)程的序號,用于進(jìn)程間的通信
    args.global_rank=dist.get_rank()
#=============================================================

    model_name=args.model_name if args.model_name else config.model_name
    # 為了保證模型每次訓(xùn)練的時(shí)候都一樣的,設(shè)置了一個(gè)初始化種子
    make_seed(config.seed)

    # 數(shù)據(jù)預(yù)處理
    process(config.data_path,config.out_path,file_type='csv')

    # 加載數(shù)據(jù)
    vocab_path=os.path.join(config.out_path,'vocab.pkl')
    train_data_path=os.path.join(config.out_path,'train.pkl')
    test_data_path=os.path.join(config.out_path,'test.pkl')

    vocab=load_pkl(vocab_path,'vocab')
    vocab_size=len(vocab.word2idx)
    
    #CustomDataset是繼承了torch.util.data的Dataset類的一個(gè)類,用于數(shù)據(jù)加載,詳情見Dataset
    train_dataset = CustomDataset(train_data_path, 'train-data')
    test_dataset = CustomDataset(test_data_path, 'test-data')

    # 測試CNN模型
    model=__Models__[model_name](vocab_size,config)
    print(model)
#=====================關(guān)鍵代碼=================================
    # 定義,并且把模型放到GPU上
    local_rank = torch.distributed.get_rank()
    torch.cuda.set_device(local_rank)
    global device
    device = torch.device("cuda", local_rank)
    # 拷貝模型,將模型放入DistributedDataParallelAPI
    model.to(device)
    # 加載多GPU
    model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[local_rank], output_device=local_rank,
                                                      find_unused_parameters=True)
    # 構(gòu)建一個(gè)train-sample
    train_sample = DistributedSampler(train_dataset)
    test_sample=DistributedSampler(test_dataset)
  # 使用分布式訓(xùn)練,一定要把suffle設(shè)置為False,因?yàn)镈istributedSampler會(huì)吧數(shù)據(jù)打亂
    train_dataloader = DataLoader(
        dataset=train_dataset,
        batch_size=config.batch_size,
        shuffle=False,
        drop_last=True,
        collate_fn=collate_fn,
        sampler=train_sample
    )

    test_dataloader = DataLoader(
        dataset=test_dataset,
        batch_size=config.batch_size,
        shuffle=False,
        drop_last=True,
        collate_fn=collate_fn,
        sampler=test_sample
    )
#  =============================================
    # 構(gòu)建優(yōu)化器
    optimizer=optim.Adam(model.parameters(),lr=config.learing_rate)
    scheduler=optim.lr_scheduler.ReduceLROnPlateau(optimizer,'max',factor=config.decay_rate,patience=config.decay_patience)

    # 損失函數(shù):交叉熵
    loss_fn=nn.CrossEntropyLoss()

    # 評價(jià)指標(biāo),微平均,宏平均
    best_macro_f1,best_macro_epoch=0,1
    best_micro_f1,best_micro_epoch=0,1
    best_macro_model,best_micro_model='',''
    print("***************************開始訓(xùn)練*******************************")
    for epoch in  range(1,config.epoch+1):
        train_sample.set_epoch(epoch) # 讓每張卡在每個(gè)周期中得到的數(shù)據(jù)是隨機(jī)的
        train(epoch,device,train_dataloader,model,optimizer,loss_fn,config)
        macro_f1,micro_f1=validate(test_dataloader,device,model,config)
        model_name=model.module.save(epoch=epoch)
        scheduler.step(macro_f1)

        if macro_f1>best_macro_f1:
            best_macro_f1=macro_f1
            best_macro_epoch=epoch
            best_macro_model=model_name

        if micro_f1>best_micro_f1:
            best_micro_f1=micro_f1
            best_micro_epoch=epoch
            best_micro_model=model_name


    print("=========================模型訓(xùn)練完成==================================")

    print(f'best macro f1:{best_macro_f1:.4f}',f'in epoch:{best_macro_epoch},save in:{best_macro_model}')
    print(f'best micro f1:{best_micro_f1:.4f}',f'in epoch:{best_macro_epoch},save_in:{best_micro_model}')

最后在shell后臺使用的下面語句運(yùn)行(暫時(shí)我只發(fā)現(xiàn)這種方法運(yùn)行,其他方法還需要尋找)

CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 main.py

其中

  • torch.distributed.launch表示以分布式的方式啟動(dòng)訓(xùn)練,
  • nproc_per_node指定一共就多少個(gè)節(jié)點(diǎn)恨憎,可以設(shè)置成顯卡的個(gè)數(shù)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子塘幅,更是在濱河造成了極大的恐慌,老刑警劉巖尿贫,帶你破解...
    沈念sama閱讀 218,525評論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件电媳,死亡現(xiàn)場離奇詭異,居然都是意外死亡庆亡,警方通過查閱死者的電腦和手機(jī)匾乓,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,203評論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來又谋,“玉大人拼缝,你說我怎么就攤上這事≌煤ィ” “怎么了咧七?”我有些...
    開封第一講書人閱讀 164,862評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長任斋。 經(jīng)常有香客問我继阻,道長,這世上最難降的妖魔是什么废酷? 我笑而不...
    開封第一講書人閱讀 58,728評論 1 294
  • 正文 為了忘掉前任穴翩,我火速辦了婚禮,結(jié)果婚禮上锦积,老公的妹妹穿的比我還像新娘芒帕。我一直安慰自己,他們只是感情好丰介,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,743評論 6 392
  • 文/花漫 我一把揭開白布背蟆。 她就那樣靜靜地躺著鉴分,像睡著了一般。 火紅的嫁衣襯著肌膚如雪带膀。 梳的紋絲不亂的頭發(fā)上志珍,一...
    開封第一講書人閱讀 51,590評論 1 305
  • 那天,我揣著相機(jī)與錄音垛叨,去河邊找鬼伦糯。 笑死,一個(gè)胖子當(dāng)著我的面吹牛嗽元,可吹牛的內(nèi)容都是我干的敛纲。 我是一名探鬼主播,決...
    沈念sama閱讀 40,330評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼剂癌,長吁一口氣:“原來是場噩夢啊……” “哼淤翔!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起佩谷,我...
    開封第一講書人閱讀 39,244評論 0 276
  • 序言:老撾萬榮一對情侶失蹤旁壮,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后谐檀,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體抡谐,經(jīng)...
    沈念sama閱讀 45,693評論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,885評論 3 336
  • 正文 我和宋清朗相戀三年桐猬,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了麦撵。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,001評論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡课幕,死狀恐怖厦坛,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情乍惊,我是刑警寧澤杜秸,帶...
    沈念sama閱讀 35,723評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站润绎,受9級特大地震影響撬碟,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜莉撇,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,343評論 3 330
  • 文/蒙蒙 一呢蛤、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧棍郎,春花似錦其障、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,919評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽蜈敢。三九已至,卻和暖如春汽抚,著一層夾襖步出監(jiān)牢的瞬間抓狭,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,042評論 1 270
  • 我被黑心中介騙來泰國打工造烁, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留否过,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,191評論 3 370
  • 正文 我出身青樓惭蟋,卻偏偏與公主長得像苗桂,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個(gè)殘疾皇子敞葛,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,955評論 2 355

推薦閱讀更多精彩內(nèi)容