記一次性能優(yōu)化的心酸歷程【Flask+Gunicorn+pytorch+多進(jìn)程+線程池剑肯,一頓操作猛如虎】

您好捧毛,我是碼農(nóng)飛哥,感謝您閱讀本文让网,歡迎一鍵三連哦呀忧。
本文只是記錄我優(yōu)化的心酸歷程。無(wú)他溃睹,唯記錄爾而账。。因篇。泞辐。。小伙伴們可圍觀竞滓,可打call咐吼,可以私信與我交流。
干貨滿滿商佑,建議收藏锯茄,需要用到時(shí)常看看茶没。 小伙伴們?nèi)缬袉?wèn)題及需要肌幽,歡迎踴躍留言哦~ ~ ~。

問(wèn)題背景

現(xiàn)有一個(gè)古詩(shī)自動(dòng)生成的訓(xùn)練接口礁叔,該接口通過(guò)Pytorch來(lái)生訓(xùn)練模型(即生成古詩(shī))為了加速使用到了GPU牍颈,但是訓(xùn)練完成之后GPU未能釋放。故此需要進(jìn)行優(yōu)化琅关,即在古詩(shī)生成完成之后釋放GPU煮岁。
該項(xiàng)目是一個(gè)通過(guò)Flask搭建的web服務(wù)讥蔽,在服務(wù)器上為了實(shí)現(xiàn)并發(fā)采用的是gunicorn來(lái)啟動(dòng)應(yīng)用。通過(guò)pythorch來(lái)進(jìn)行古詩(shī)訓(xùn)練画机。項(xiàng)目部署在一個(gè)CentOS的服務(wù)器上冶伞。

系統(tǒng)環(huán)境

軟件 版本
flask 0.12.2
gunicorn 19.9.0
CentOS 6.6 帶有GPU的服務(wù)器,不能加機(jī)器
pytorch 1.7.0+cpu

因?yàn)樘厥獾脑蜻@里之后一個(gè)服務(wù)器供使用步氏,故不能考慮加機(jī)器的情況响禽。

優(yōu)化歷程

pytorch在訓(xùn)練模型時(shí),需要先加載模型model和數(shù)據(jù)data荚醒,如果有GPU顯存的話我們可以將其放到GPU顯存中加速芋类,如果沒(méi)有GPU的話則只能使用CPU了。
由于加載模型以及數(shù)據(jù)的過(guò)程比較慢界阁。所以侯繁,我這邊將加載過(guò)程放在了項(xiàng)目啟動(dòng)時(shí)加載

import torch
device = "cuda" if torch.cuda.is_available() else "cpu"
model = GPT2LMHeadModel.from_pretrained(os.path.join(base_path, "model"))
model.to(device)
model.eval()

這部分耗時(shí)大約在6秒左右泡躯。cuda表示使用torch的cuda贮竟。模型數(shù)據(jù)加載之后所占的GPU顯存大小大約在1370MB。優(yōu)化的目標(biāo)就是在訓(xùn)練完成之后將這部分占用的顯存釋放掉较剃。

小小分析一波

現(xiàn)狀是項(xiàng)目啟動(dòng)時(shí)就加載模型model和數(shù)據(jù)data的話咕别,當(dāng)模型數(shù)據(jù)在GPU中釋放掉之后,下次再進(jìn)行模型訓(xùn)練的話不就沒(méi)有模型model和數(shù)據(jù)data了么写穴?如果要釋放GPU的話惰拱,就需要考慮如何重新加載GPU。
所以啊送,模型model和數(shù)據(jù)data不能放在項(xiàng)目啟動(dòng)的時(shí)候加載弓颈,只能放在調(diào)用訓(xùn)練的函數(shù)時(shí)加載,但是由于加載比較慢删掀,所以只能放在一個(gè)異步的子線程或者子進(jìn)程中運(yùn)行翔冀。
所以,我這邊首先將模型數(shù)據(jù)的加載過(guò)程以及訓(xùn)練放在了一個(gè)單獨(dú)的線程中執(zhí)行披泪。

第一階段:直接上torch.cuda.empty_cache()清理纤子。

GPU沒(méi)釋放,那就釋放唄款票。這不是很簡(jiǎn)單么控硼?百度一波pytorch怎么釋放GPU顯存。

在這里插入圖片描述

在這里插入圖片描述

輕點(diǎn)一下艾少,即找到了答案卡乾。那就是在訓(xùn)練完成之后torch.cuda.empty_cache()代碼加上之后再運(yùn)行缚够,發(fā)現(xiàn)并沒(méi)啥卵用a7痢p惺辍!误堡!古话,CV大法第一運(yùn)用失敗
這到底是啥原因呢?我們后面會(huì)分析到KE悴取!

第二階段(創(chuàng)建子進(jìn)程加載模型并進(jìn)行訓(xùn)練)

既然子線程加載模型并進(jìn)行訓(xùn)練不能釋放GPU的話悉抵,那么我們能不能轉(zhuǎn)變一下思路肩狂。創(chuàng)建一個(gè)子進(jìn)程來(lái)加載模型數(shù)據(jù)并進(jìn)行訓(xùn)練,
當(dāng)訓(xùn)練完成之后就將這個(gè)子進(jìn)程殺掉姥饰,它所占用的資源(主要是GPU顯存)不就被釋放了么婚温?
這思路看起來(lái)沒(méi)有絲毫的毛病呀。說(shuō)干就干媳否。

  1. 定義加載模型數(shù)據(jù)以及訓(xùn)練的方法 training。(代碼僅供參考)
def training(queue):
    manage.app.app_context().push()
    current_app.logger.error('基礎(chǔ)加載開(kāi)始')
    with manage.app.app_context():
        device = "cuda" if torch.cuda.is_available() else "cpu"
        current_app.logger.error('device1111開(kāi)始啦啦啦')
        model.to(device)
        current_app.logger.error('device2222')
        model.eval()
        n_ctx = model.config.n_ctx
        current_app.logger.error('基礎(chǔ)加載完成')
        #訓(xùn)練方法
        result_list=start_train(model,n_ctx,device)
        current_app.logger.error('完成訓(xùn)練')
        #將訓(xùn)練方法返回的結(jié)果放入隊(duì)列中
        queue.put(result_list)      
  1. 創(chuàng)建子進(jìn)程執(zhí)行training方法荆秦,然后通過(guò)阻塞的方法獲取訓(xùn)練結(jié)果
from torch import multiprocessing as mp
def sub_process_train():
    #定義一個(gè)隊(duì)列獲取訓(xùn)練結(jié)果
    train_queue = mp.Queue()
    training_process = mp.Process(target=training, args=(train_queue))
    training_process.start()
    current_app.logger.error('子進(jìn)程執(zhí)行')
    # 等訓(xùn)練完成
    training_process.join()
    current_app.logger.error('執(zhí)行完成')
    #獲取訓(xùn)練結(jié)果
    result_list = train_queue.get()
    current_app.logger.error('獲取到數(shù)據(jù)')
    if training_process.is_alive():
        current_app.logger.error('子進(jìn)程還存活')
        #殺掉子進(jìn)程
        os.kill(training_process.pid, signal.SIGKILL)
    current_app.logger.error('殺掉子進(jìn)程')
    return result_list
        
  1. 因?yàn)樽舆M(jìn)程要阻塞獲取執(zhí)行結(jié)果篱竭,所以需要定義一個(gè)線程去執(zhí)行sub_process_train方法以保證訓(xùn)練接口可以正常返回。
import threading
threading.Thread(target=sub_process_train).start()

代碼寫好了步绸,見(jiàn)證奇跡的時(shí)候來(lái)了掺逼。

首先用python manage.py 啟動(dòng)一下,看下結(jié)果瓤介,運(yùn)行結(jié)果如下吕喘,報(bào)了一個(gè)錯(cuò)誤,從錯(cuò)誤的提示來(lái)看就是不能在forked的子進(jìn)程中重復(fù)加載CUDA刑桑。"Cannot re-initialize CUDA in forked subprocess. " + msg) RuntimeError: Cannot re-initialize CUDA in forked subprocess. To use CUDA with multiprocessing, you must use the 'spawn' start method氯质。

在這里插入圖片描述

這里有問(wèn)題,就是 forked 是啥祠斧,spawn 又是啥闻察?這里就需要了解創(chuàng)建子進(jìn)程的方式了。
通過(guò)torch.multiprocessing.Process(target=training, args=(train_queue)) 創(chuàng)建一個(gè)子進(jìn)程

fork和spawn是構(gòu)建子進(jìn)程的不同方式琢锋,區(qū)別在于
1. fork: 除了必要的啟動(dòng)資源辕漂,其余的變量,包吴超,數(shù)據(jù)等都集成自父進(jìn)程钉嘹,也就是共享了父進(jìn)程的一些內(nèi)存頁(yè),因此啟動(dòng)較快鲸阻,但是由于大部分都是用的自父進(jìn)程數(shù)據(jù)跋涣,所有是不安全的子進(jìn)程缨睡。
2. spawn:從頭構(gòu)建一個(gè)子進(jìn)程,父進(jìn)程的數(shù)據(jù)拷貝到子進(jìn)程的空間中仆潮,擁有自己的Python解釋器宏蛉,所有需要重新加載一遍父進(jìn)程的包,因此啟動(dòng)叫慢性置,但是由于數(shù)據(jù)都是自己的拾并,安全性比較高。

回到剛剛那個(gè)報(bào)錯(cuò)上面去鹏浅。為啥提示要不能重復(fù)加載嗅义。

這是因?yàn)镻ython3中使用 spawn啟動(dòng)方法才支持在進(jìn)程之間共享CUDA張量。而用的multiprocessing 是使用 fork 創(chuàng)建子進(jìn)程隐砸,不被 CUDA 運(yùn)行時(shí)所支持之碗。
所以,只有在創(chuàng)建子進(jìn)程之前加上mp.set_start_method('spawn') 方法季希。即

def sub_process_train(prefix, length):
    try:
        mp.set_start_method('spawn')
    except RuntimeError:
        pass
    train_queue = mp.Queue()
    training_process = mp.Process(target=training, args=(train_queue))
    ##省略其他代碼

再次通過(guò) python manage.py 運(yùn)行項(xiàng)目褪那。運(yùn)行結(jié)果圖1和圖2所示,可以看出可以正確是使用GPU顯存式塌,在訓(xùn)練完成之后也可以釋放GPU博敬。

圖1

圖2

一切看起來(lái)都很prefect。 But峰尝,But偏窝。通過(guò)gunicorn啟動(dòng)項(xiàng)目之后,再次調(diào)用接口武学,則出現(xiàn)下面結(jié)果祭往。
在這里插入圖片描述

用gunicorn啟動(dòng)項(xiàng)目子進(jìn)程竟然未執(zhí)行,這就很頭大了火窒。不加mp.set_start_method('spawn') 方法模型數(shù)據(jù)不能加載硼补,
加上這個(gè)方法子進(jìn)程不能執(zhí)行,真的是一個(gè)頭兩個(gè)大
熏矿。

第三階段(全局線程池+釋放GPU)

子進(jìn)程的方式也不行了括勺。只能回到前面的線程方式了。前面創(chuàng)建線程的方式都是直接通過(guò)直接new一個(gè)新線程的方式曲掰,當(dāng)同時(shí)運(yùn)行的線程數(shù)過(guò)多的話疾捍,則很容易就會(huì)出現(xiàn)GPU占滿的情況,從而導(dǎo)致應(yīng)用崩潰栏妖。所以乱豆,這里采用全局線程池的方式來(lái)創(chuàng)建并管理線程,然后當(dāng)線程執(zhí)行完成之后釋放資源吊趾。

  1. 在項(xiàng)目啟動(dòng)之后就創(chuàng)建一個(gè)全局線程池宛裕。大小是2瑟啃。保證還有剩余的GPU。
from multiprocessing.pool import ThreadPool
pool = ThreadPool(processes=2)
  1. 通過(guò)線程池來(lái)執(zhí)行訓(xùn)練
  pool.apply_async(func=async_produce_poets)
  1. 用線程加載模型和釋放GPU

def async_produce_poets():
    try:
        print("子進(jìn)程開(kāi)始" + str(os.getpid())+" "+str(threading.current_thread().ident))
        start_time = int(time.time())
        manage.app.app_context().push()
        device = "cuda" if torch.cuda.is_available() else "cpu"
        model = GPT2LMHeadModel.from_pretrained(os.path.join(base_path, "model"))
        model.to(device)
        model.eval()
        n_ctx = model.config.n_ctx
        result_list=start_train(model,n_ctx,device)
        #將模型model轉(zhuǎn)到cpu
        model = model.to('cpu')
        #刪除模型揩尸,也就是刪除引用
        del model
        #在使用其釋放GPU蛹屿。
        torch.cuda.empty_cache()
        train_seconds = int(time.time() - start_time)
        current_app.logger.info('訓(xùn)練總耗時(shí)是={0}'.format(str(train_seconds)))
    except Exception as e:
        manage.app.app_context().push()

這一番操作之后,終于達(dá)到了理想的效果岩榆。

這里因?yàn)槭褂玫搅薵unicorn來(lái)啟動(dòng)項(xiàng)目错负。所以gunicorn 相關(guān)的知識(shí)必不可少。在CPU受限的系統(tǒng)中采用sync的工作模式比較理想勇边。
詳情可以查看gunicorn的簡(jiǎn)單總結(jié)

問(wèn)題分析犹撒,前面第一階段直接使用torch.cuda.empty_cache() 沒(méi)能釋放GPU就是因?yàn)闆](méi)有刪除掉模型model。模型已經(jīng)加載到了GPU了粒褒。

總結(jié)

本文從實(shí)際項(xiàng)目的優(yōu)化入手识颊,記錄優(yōu)化方面的方方面面。希望對(duì)讀者朋友們有所幫助奕坟。

參考

multiprocessing fork() vs spawn()

粉絲專屬福利

軟考資料:實(shí)用軟考資料

面試題:5G 的Java高頻面試題

學(xué)習(xí)資料:50G的各類學(xué)習(xí)資料

脫單秘籍:回復(fù)【脫單】

并發(fā)編程:回復(fù)【并發(fā)編程】

全網(wǎng)同名【碼農(nóng)飛哥】祥款。不積跬步,無(wú)以至千里月杉,享受分享的快樂(lè)
我是碼農(nóng)飛哥刃跛,再次感謝您讀完本文

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末沙合,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子跌帐,更是在濱河造成了極大的恐慌首懈,老刑警劉巖,帶你破解...
    沈念sama閱讀 217,277評(píng)論 6 503
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件谨敛,死亡現(xiàn)場(chǎng)離奇詭異究履,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)脸狸,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,689評(píng)論 3 393
  • 文/潘曉璐 我一進(jìn)店門最仑,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人炊甲,你說(shuō)我怎么就攤上這事泥彤。” “怎么了卿啡?”我有些...
    開(kāi)封第一講書人閱讀 163,624評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵吟吝,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我颈娜,道長(zhǎng)剑逃,這世上最難降的妖魔是什么浙宜? 我笑而不...
    開(kāi)封第一講書人閱讀 58,356評(píng)論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮蛹磺,結(jié)果婚禮上粟瞬,老公的妹妹穿的比我還像新娘。我一直安慰自己萤捆,他們只是感情好裙品,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,402評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著鳖轰,像睡著了一般清酥。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上蕴侣,一...
    開(kāi)封第一講書人閱讀 51,292評(píng)論 1 301
  • 那天焰轻,我揣著相機(jī)與錄音,去河邊找鬼昆雀。 笑死辱志,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的狞膘。 我是一名探鬼主播揩懒,決...
    沈念sama閱讀 40,135評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼挽封!你這毒婦竟也來(lái)了已球?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書人閱讀 38,992評(píng)論 0 275
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤辅愿,失蹤者是張志新(化名)和其女友劉穎智亮,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體点待,經(jīng)...
    沈念sama閱讀 45,429評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡阔蛉,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,636評(píng)論 3 334
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了癞埠。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片状原。...
    茶點(diǎn)故事閱讀 39,785評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖苗踪,靈堂內(nèi)的尸體忽然破棺而出颠区,到底是詐尸還是另有隱情,我是刑警寧澤通铲,帶...
    沈念sama閱讀 35,492評(píng)論 5 345
  • 正文 年R本政府宣布瓦呼,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏央串。R本人自食惡果不足惜磨澡,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,092評(píng)論 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望质和。 院中可真熱鬧稳摄,春花似錦、人聲如沸饲宿。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 31,723評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)瘫想。三九已至仗阅,卻和暖如春匙睹,著一層夾襖步出監(jiān)牢的瞬間挚冤,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 32,858評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工鼻吮, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留车吹,地道東北人筹裕。 一個(gè)月前我還...
    沈念sama閱讀 47,891評(píng)論 2 370
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像窄驹,于是被迫代替她去往敵國(guó)和親朝卒。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,713評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容