從零構(gòu)建GPT --- 學(xué)習(xí)筆記

從零構(gòu)建GPT

視頻教程先從理論講起震叙。
第一部分主要關(guān)于建立基準(zhǔn)語(yǔ)言模型(二元)以及Transformer核心注意力機(jī)制,以及該機(jī)制內(nèi)節(jié)點(diǎn)之間的信息傳遞丘逸,自注意力機(jī)制理論也有涉及。
該part內(nèi)容長(zhǎng)度超過(guò)1小時(shí)掀宋,不僅有概念解釋深纲,還教你如何使用矩陣乘法、添加softmax歸一化劲妙,可謂“夯實(shí)基礎(chǔ)”式講解湃鹊。

Karpathy另一個(gè)身份是前特斯拉AI核心人物。
在馬斯克麾下镣奋,他歷任特斯拉高級(jí)AI主管币呵、特斯拉自動(dòng)駕駛AutoPilot負(fù)責(zé)人、特斯拉超算Dojo負(fù)責(zé)人侨颈、特斯拉擎天柱人形機(jī)器人負(fù)責(zé)人…
2022年7月富雅,Karpathy Andrej離職,在業(yè)內(nèi)引發(fā)不小討論肛搬。當(dāng)時(shí)他就表示没佑,未來(lái)將花更多時(shí)間在AI、開(kāi)源技術(shù)教育上温赔。
這回發(fā)布的從0開(kāi)始構(gòu)建GPT課程蛤奢,正是他教學(xué)計(jì)劃的一部分。

課程視頻:
https://www.youtube.com/watch?v=kCc8FmEb1nY
nanoGPT GitHub鏈接:
https://github.com/karpathy/nanoGPT

“從0到1手搓GPT”教程來(lái)了!

視頻1個(gè)多小時(shí)啤贩,從原理到代碼都一一呈現(xiàn)待秃,訓(xùn)練微調(diào)也涵蓋在內(nèi),手把手帶著你搞定痹屹。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqy9UnL2v4LeCdIhnhicY9dHMUibPWx43xMnpW3XNJzf93lgetrMlX246Q/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

該內(nèi)容剛發(fā)出來(lái)章郁,在Twitter已吸引400萬(wàn)關(guān)注量,HackerNews上Points也破了900志衍。

連馬斯克也下場(chǎng)支持暖庄。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdq3G1UGKRkXkv1J2duhXtiaq2pdgElwcqtATgyoeYgq6CgPrDVlf97QmA/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

評(píng)論區(qū)更是一片鑼鼓喧天鞭炮齊鳴,網(wǎng)友們紛紛馬住楼肪。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqO0GXrFGTPX2yzpeDMKvpDU7As7iaRSnW7iaXUiaCQSg0VEib1v9hUtASzQ/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

有人評(píng)價(jià)培廓,Andrej確實(shí)是一位出色的“事物解釋者”,也熱心于回答大家的問(wèn)題春叫。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqj9cLBppWCNVoeibp2OQT2tBwlzBFmGEWVuC1yZJ8dw6UqeyoSVibkH7Q/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

還有網(wǎng)友更夸張肩钠,稱該教程簡(jiǎn)直是來(lái)“救命”。

那么暂殖,這位活菩薩是誰(shuí)价匠?

正是前特斯拉AI總監(jiān),李飛飛高徒——Andrej Karpathy呛每。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqgRxNEeKm2Dic5ibrXtgP9p7xer43TH129cDsA9zL8TicXUFV6N1KMjO0A/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

教程具體說(shuō)了什么踩窖?

這就來(lái)展開(kāi)講講。

1

『從零構(gòu)建GPT莉给,總共幾步毙石?』

視頻教程先從理論講起。

第一部分主要關(guān)于建立基準(zhǔn)語(yǔ)言模型(二元)以及Transformer核心注意力機(jī)制颓遏,以及該機(jī)制內(nèi)節(jié)點(diǎn)之間的信息傳遞徐矩,自注意力機(jī)制理論也有涉及。

該part內(nèi)容長(zhǎng)度超過(guò)1小時(shí)叁幢,不僅有概念解釋滤灯,還教你如何使用矩陣乘法、添加softmax歸一化曼玩,可謂“夯實(shí)基礎(chǔ)”式講解鳞骤。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdq1IFQXms53Up5kGoAia3VBBJ3pMfBda8fRtsdicmMu8rJphQIXW34urkQ/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

接著講述構(gòu)建Transformer。

這當(dāng)中涉及了多頭注意力(包括如何插入自注意力構(gòu)建塊)黍判、多層感知機(jī)(MLP)豫尽、殘差連接、歸一化方法LayerNorm以及如何在Transformer中添加Dropout Notes…….

然后顷帖,作者會(huì)帶大家訓(xùn)練一個(gè)模型美旧,當(dāng)中會(huì)用到一個(gè)名為nanoGPT的庫(kù)渤滞,可調(diào)用GPT-2參數(shù),快速完成GPT模型的訓(xùn)練榴嗅。

教程中妄呕,作者還將所得模型與Open AI的GPT-3比較。兩者規(guī)模差距達(dá)1萬(wàn)-100萬(wàn)倍嗽测,但神經(jīng)網(wǎng)絡(luò)是相同的绪励。另一個(gè)將拿來(lái)比較的是人盡皆知的ChatGPT,當(dāng)然唠粥,我們目前所得只是預(yù)訓(xùn)練模型疏魏。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqibxlmwoaNV6vc54SDXcYwrBnic9FrjD54jJX5rPnyUl2zvm7kOricE6GQ/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

在上述內(nèi)容引導(dǎo)下,我們已得一個(gè)10M參數(shù)規(guī)模的模型厅贪,在一個(gè)GPU上訓(xùn)練15分鐘蠢护,喂給1MB大小的莎士比亞文本數(shù)據(jù)集雅宾,它就能像莎士比亞一樣輸出养涮。

比如下面兩張圖,你能分辨哪個(gè)是真人莎士比亞寫的嗎眉抬?

https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqVzbIMXCmibCxN2YlMzZBCKtHJr0DOdB9UgfOw3bpBKzDGruu6HR4emA/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

評(píng)論區(qū)有人好奇選什么GPU資源贯吓。作者也分享了下——自己用的是Lambda的云上GPU,這是他目前接觸按需計(jì)費(fèi)GPU中蜀变,最簡(jiǎn)單的渠道悄谐。

光說(shuō)不練不行,作者還給出一些課后練習(xí)库北,總共四道題爬舰,包括:

  • N維張量掌握挑戰(zhàn);
  • 在自己選擇的數(shù)據(jù)集上訓(xùn)練GPT寒瓦;
  • 找一個(gè)非常大的數(shù)據(jù)集情屹,基于它訓(xùn)練Transformer,然后初始化再基于莎士比亞數(shù)據(jù)集微調(diào)杂腰,看能否通過(guò)預(yù)訓(xùn)練獲得更低的驗(yàn)證損失垃你?
  • 參考Transformer相關(guān)論文,看看之前研究中哪些操作能進(jìn)一步提升性能喂很;

2

『神器nanoGPT也剛發(fā)布』

前文提及惜颇,作者之所以能快速完成訓(xùn)練GPT,有賴于一個(gè)名nanoGPT的庫(kù)少辣。

這也是本教程作者前幾天剛發(fā)布的利器凌摄,由2年前的minGPT升級(jí)而來(lái),只是換了個(gè)更“標(biāo)題黨”的名字漓帅,自稱納米級(jí)(nano)锨亏。目前林说,其在GitHub所獲star已超8k,網(wǎng)友連連點(diǎn)贊屯伞。

https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqrwtexD2AxP2luJ7lpnUtwWWmGVphsAs39yzqNvEbUuw8XERqfnK9aQ/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

據(jù)作者介紹腿箩,該庫(kù)里面包含一個(gè)約300行的GPT模型定義(文件名:model.py),可以從OpenAI加載GPT-2權(quán)重劣摇。

還有一個(gè)訓(xùn)練模型PyTorch樣板(文件名:train.py)珠移,同樣也是300多行。

對(duì)想上手的AI玩家來(lái)說(shuō)末融,無(wú)論是從頭開(kāi)始訓(xùn)練新模型钧惧,還是基于預(yù)訓(xùn)練進(jìn)行微調(diào)(目前可用的最大模型為1.3B參數(shù)的GPT-2),各路需求均能滿足勾习。

https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqT7dNyXtZOlORXel3GL84FGMU4ZPwictOGAlNZb5x3WaicPzo1Ysthj5g/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

△ 一個(gè)訓(xùn)練實(shí)例展示

據(jù)作者目前自己的測(cè)試浓瞪,他在1 個(gè) A100 40GB GPU 上訓(xùn)練一晚,損失約為 3.74巧婶。如果是在4個(gè)GPU上訓(xùn)練損失約為3.60乾颁。

如果在8個(gè)A100 40GB節(jié)點(diǎn)上進(jìn)行約50萬(wàn)次迭代,時(shí)長(zhǎng)約為1天艺栈,atim的訓(xùn)練降至約3.1英岭,init隨機(jī)概率是10.82,已將結(jié)果帶到了baseline范圍湿右。

https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqmUVQBXibdqQGQKDrqZMOgqkOxYNlI50h1ic9xrPEejkNK5GuaqtLFvuA/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

對(duì)macbook或一些“力量”不足的小破本诅妹,靠nanoGPT也能開(kāi)訓(xùn)。

不過(guò)毅人,作者建議使用莎士比亞(shakespeare)數(shù)據(jù)集吭狡,該數(shù)據(jù)集前文已提及,大小約1MB丈莺,然后在一個(gè)很小的網(wǎng)絡(luò)上運(yùn)行划煮。

據(jù)他自己親身示范,創(chuàng)建了一個(gè)小得多的Transformer(4層场刑,4個(gè)head般此,64嵌入大小)牵现,在作者自己的蘋果AIR M1本上铐懊,每次迭代大約需要400毫秒。

(GitHub上nanoGPT鏈接附在文末瞎疼,有需要的朋友自瓤坪酢)

3

『One More Thing』

此番教程作者Karpathy Andrej在圈內(nèi)早已頗有名氣,他在斯坦福時(shí)贼急,師從華人AI大牛李飛飛茅茂,后又曾工作于Open AI捏萍。

此前,Karpathy就在致力于讓更多人接觸了解神經(jīng)網(wǎng)絡(luò)和相關(guān)數(shù)據(jù)集空闲。2020年8月令杈,他就曾發(fā)布nanoGPT前一代,MinGPT碴倾,同樣旨在讓GPT做到小巧逗噩、簡(jiǎn)潔、可解釋跌榔,同樣主打——300行代碼解決問(wèn)題异雁。

Karpathy另一個(gè)身份是前特斯拉AI核心人物。

在馬斯克麾下僧须,他歷任特斯拉高級(jí)AI主管纲刀、特斯拉自動(dòng)駕駛AutoPilot負(fù)責(zé)人、特斯拉超算Dojo負(fù)責(zé)人担平、特斯拉擎天柱人形機(jī)器人負(fù)責(zé)人…

2022年7月示绊,Karpathy Andrej離職,在業(yè)內(nèi)引發(fā)不小討論驱闷。當(dāng)時(shí)他就表示耻台,未來(lái)將花更多時(shí)間在AI空免、開(kāi)源技術(shù)教育上空另。

這回發(fā)布的從0開(kāi)始構(gòu)建GPT課程,正是他教學(xué)計(jì)劃的一部分蹋砚。

  • 課程視頻:

https://www.youtube.com/watch?v=kCc8FmEb1nY

  • nanoGPT GitHub鏈接:

https://github.com/karpathy/nanoGPT

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末扼菠,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子坝咐,更是在濱河造成了極大的恐慌循榆,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,820評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件墨坚,死亡現(xiàn)場(chǎng)離奇詭異秧饮,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)泽篮,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,648評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門盗尸,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人帽撑,你說(shuō)我怎么就攤上這事泼各。” “怎么了亏拉?”我有些...
    開(kāi)封第一講書人閱讀 168,324評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵扣蜻,是天一觀的道長(zhǎng)逆巍。 經(jīng)常有香客問(wèn)我,道長(zhǎng)莽使,這世上最難降的妖魔是什么锐极? 我笑而不...
    開(kāi)封第一講書人閱讀 59,714評(píng)論 1 297
  • 正文 為了忘掉前任,我火速辦了婚禮芳肌,結(jié)果婚禮上溪烤,老公的妹妹穿的比我還像新娘。我一直安慰自己庇勃,他們只是感情好檬嘀,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,724評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著责嚷,像睡著了一般鸳兽。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上罕拂,一...
    開(kāi)封第一講書人閱讀 52,328評(píng)論 1 310
  • 那天揍异,我揣著相機(jī)與錄音,去河邊找鬼爆班。 笑死衷掷,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的柿菩。 我是一名探鬼主播戚嗅,決...
    沈念sama閱讀 40,897評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼枢舶!你這毒婦竟也來(lái)了懦胞?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書人閱讀 39,804評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤凉泄,失蹤者是張志新(化名)和其女友劉穎躏尉,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體后众,經(jīng)...
    沈念sama閱讀 46,345評(píng)論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡胀糜,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,431評(píng)論 3 340
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了蒂誉。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片教藻。...
    茶點(diǎn)故事閱讀 40,561評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖拗盒,靈堂內(nèi)的尸體忽然破棺而出怖竭,到底是詐尸還是另有隱情,我是刑警寧澤陡蝇,帶...
    沈念sama閱讀 36,238評(píng)論 5 350
  • 正文 年R本政府宣布痊臭,位于F島的核電站哮肚,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏广匙。R本人自食惡果不足惜允趟,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,928評(píng)論 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望鸦致。 院中可真熱鬧潮剪,春花似錦、人聲如沸分唾。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 32,417評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)绽乔。三九已至弧蝇,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間折砸,已是汗流浹背看疗。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 33,528評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留睦授,地道東北人两芳。 一個(gè)月前我還...
    沈念sama閱讀 48,983評(píng)論 3 376
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像去枷,于是被迫代替她去往敵國(guó)和親怖辆。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,573評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容

  • 一. SVG是什么沉填? SVG 意為可縮放矢量圖形(Scalable Vectors Graphics)疗隶。 SVG ...
    TROPICALlll閱讀 1,136評(píng)論 0 1
  • 一技術(shù)上 1 學(xué)習(xí)了多層布局和拖拽的技術(shù),之前由于不懂這方面的技術(shù)翼闹,在做上一個(gè)運(yùn)營(yíng)項(xiàng)目的時(shí)候拖拽自己的寫的,結(jié)果...
    半音半猿閱讀 149評(píng)論 0 0
  • 有關(guān)于移動(dòng)端的適配布局一直以來(lái)都是眾說(shuō)紛紜蒋纬,對(duì)應(yīng)的解決方案也是有很多種猎荠。在《使用Flexible實(shí)現(xiàn)手淘H5頁(yè)面的...
    0_2448閱讀 301評(píng)論 0 0
  • 移動(dòng)端適配关摇,是我們?cè)陂_(kāi)發(fā)中經(jīng)常會(huì)遇到的,這里面可能會(huì)遇到非常多的問(wèn)題: 1px問(wèn)題 UI圖完美適配方案 iPhon...
    Vicky丶Amor閱讀 8,871評(píng)論 4 19
  • 導(dǎo)讀 移動(dòng)端適配,是我們?cè)陂_(kāi)發(fā)中經(jīng)常會(huì)遇到的脂凶,這里面可能會(huì)遇到非常多的問(wèn)題: 1px問(wèn)題 UI圖完美適配方案 iP...
    編程鴨閱讀 1,816評(píng)論 0 0