ChatGPT技術(shù)報告

ChatGPT技術(shù)報告

ChatGPT是一個由OpenAI開發(fā)的大型語言模型宝惰,是GPT(Generative Pretrained Transformer)系列模型的一部分。它使用了 Transformer 架構(gòu)挣饥,并在大量的文本數(shù)據(jù)上進行了預(yù)訓(xùn)練灾螃。預(yù)訓(xùn)練的目的是使模型能夠從大量的文本中學(xué)習(xí)語言知識和模式,從而在接下來的任務(wù)中更好地進行語言生成排宰。

ChatGPT 的應(yīng)用領(lǐng)域廣泛,包括聊天機器人那婉,問答系統(tǒng)板甘,文本生成,語音識別等详炬。在聊天機器人領(lǐng)域盐类,ChatGPT可以提供人類般的自然語言回答,并且在語法和語義方面的表現(xiàn)十分出色。

一在跳、GPT發(fā)展歷程

Generative Pre-trained Transformer (GPT)枪萄,是一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練的文本生成深度學(xué)習(xí)模型。它用于問答猫妙、文本摘要生成瓷翻、機器翻譯、分類割坠、代碼生成和對話 AI齐帚。

1.GPT-1

2018 年,GPT-1 誕生彼哼,這一年也是 NLP(自然語言處理)的預(yù)訓(xùn)練模型元年对妄。性能方面,GPT-1 有著一定的泛化能力沪羔,能夠用于和監(jiān)督任務(wù)無關(guān)的 NLP 任務(wù)中饥伊。其常用任務(wù)包括:

l 自然語言推理:判斷兩個句子的關(guān)系(包含、矛盾蔫饰、中立)

l 問答與常識推理:輸入文章及若干答案,輸出答案的準確率

l 語義相似度識別:判斷兩個句子語義是否相關(guān)

l 分類:判斷輸入文本是指定的哪個類別

雖然 GPT-1 在未經(jīng)調(diào)試的任務(wù)上有一些效果愉豺,但其泛化能力遠低于經(jīng)過微調(diào)的有監(jiān)督任務(wù)篓吁,因此 GPT-1 只能算得上一個還算不錯的語言理解工具而非對話式 AI。

2.GPT-2

GPT-2 也于 2019 年如期而至蚪拦,不過杖剪,GPT-2 并沒有對原有的網(wǎng)絡(luò)進行過多的結(jié)構(gòu)創(chuàng)新與設(shè)計,只使用了更多的網(wǎng)絡(luò)參數(shù)與更大的數(shù)據(jù)集:最大模型共計 48 層驰贷,參數(shù)量達 15 億盛嘿,學(xué)習(xí)目標則使用無監(jiān)督預(yù)訓(xùn)練模型做有監(jiān)督任務(wù)。在性能方面括袒,除了理解能力外次兆,GPT-2 在生成方面第一次表現(xiàn)出了強大的天賦:閱讀摘要、聊天锹锰、續(xù)寫芥炭、編故事,甚至生成假新聞恃慧、釣魚郵件或在網(wǎng)上進行角色扮演通通不在話下园蝠。在“變得更大”之后,GPT-2 的確展現(xiàn)出了普適而強大的能力痢士,并在多個特定的語言建模任務(wù)上實現(xiàn)了彼時的最佳性能彪薛。

3.GPT-3

之后,GPT-3 出現(xiàn)了,作為一個無監(jiān)督模型善延,幾乎可以完成自然語言處理的絕大部分任務(wù)训唱,例如面向問題的搜索、閱讀理解挚冤、語義推斷况增、機器翻譯、文章生成和自動問答等等训挡。而且澳骤,該模型在諸多任務(wù)上表現(xiàn)卓越,例如在法語-英語和德語-英語機器翻譯任務(wù)上達到當(dāng)前最佳水平澜薄,自動產(chǎn)生的文章幾乎讓人無法辨別出自人還是機器为肮,更令人驚訝的是在兩位數(shù)的加減運算任務(wù)上達到幾乎 100% 的正確率,甚至還可以依據(jù)任務(wù)描述自動生成代碼肤京。一個無監(jiān)督模型功能多效果好颊艳,似乎讓人們看到了通用人工智能的希望,這就是 GPT-3 影響如此之大的主要原因忘分。
image.png

由于 GPT-3 更強的性能和明顯更多的參數(shù)棋枕,它包含了更多的主題文本,顯然優(yōu)于前代的 GPT-2 妒峦。作為目前最大的密集型神經(jīng)網(wǎng)絡(luò)重斑,GPT-3 能夠?qū)⒕W(wǎng)頁描述轉(zhuǎn)換為相應(yīng)代碼、模仿人類敘事肯骇、創(chuàng)作定制詩歌窥浪、生成游戲劇本,甚至模仿已故的各位哲學(xué)家——預(yù)測生命的真諦笛丙。且 GPT-3 不需要微調(diào)漾脂,在處理語法難題方面,它只需要一些輸出類型的樣本(少量學(xué)習(xí))胚鸯」歉澹可以說 GPT-3 似乎已經(jīng)滿足了我們對于語言專家的一切想象。

image.png
  1. ChatGPT“前身”InstructGPT

InstructGPT 的工作原理是開發(fā)人員通過結(jié)合監(jiān)督學(xué)習(xí)+從人類反饋中獲得的強化學(xué)習(xí)蠢琳。來提高 GPT-3 的輸出質(zhì)量啊终。在這種學(xué)習(xí)中,人類對模型的潛在輸出進行排序傲须;強化學(xué)習(xí)算法則對產(chǎn)生類似于高級輸出材料的模型進行獎勵蓝牲。開發(fā)人員將提示分為三個部分,并以不同的方式為每個部分創(chuàng)建響應(yīng):人類作家會對第一組提示做出響應(yīng)泰讽。開發(fā)人員微調(diào)了一個經(jīng)過訓(xùn)練的 GPT-3 例衍,將它變成 InstructGPT 以生成每個提示的現(xiàn)有響應(yīng)昔期。

下一步是訓(xùn)練一個模型,使其對更好的響應(yīng)做出更高的獎勵佛玄。對于第二組提示硼一,經(jīng)過優(yōu)化的模型會生成多個響應(yīng)。人工評分者會對每個回復(fù)進行排名梦抢。在給出一個提示和兩個響應(yīng)后般贼,一個獎勵模型(另一個預(yù)先訓(xùn)練的 GPT-3)學(xué)會了為評分高的響應(yīng)計算更高的獎勵,為評分低的回答計算更低的獎勵奥吩。

開發(fā)人員使用第三組提示和強化學(xué)習(xí)方法近端策略優(yōu)化(Proximal Policy Optimization, PPO)進一步微調(diào)了語言模型哼蛆。給出提示后,語言模型會生成響應(yīng)霞赫,而獎勵模型會給予相應(yīng)獎勵腮介。PPO 使用獎勵來更新語言模型。

二、ChatGPT的技術(shù)原理

總體來說,Chatgpt 和 InstructGPT 一樣禁舷,是使用 RLHF(從人類反饋中強化學(xué)習(xí))訓(xùn)練的。不同之處在于數(shù)據(jù)是如何設(shè)置用于訓(xùn)練(以及收集)的灭抑。

ChatGPT是一個大型語言模型,由OpenAI訓(xùn)練玉锌,具有高效的語言處理能力名挥。它的底層原理主要包括三個方面:Transformer架構(gòu)、自注意力機制和預(yù)訓(xùn)練主守。

(1) Transformer架構(gòu):Transformer是一種用于處理序列數(shù)據(jù)(如文本)的神經(jīng)網(wǎng)絡(luò)架構(gòu),是在自注意力機制的基礎(chǔ)上構(gòu)建的榄融。編碼器和解碼器是它的兩個主要組成部分参淫,分別用于處理輸入數(shù)據(jù)和生成輸出數(shù)據(jù)。

(2) 自注意力機制:自注意力機制是Transformer架構(gòu)的核心愧杯,它通過編碼輸入單元并計算每個輸入單元與每個輸出單元的相關(guān)性涎才,來實現(xiàn)對輸入數(shù)據(jù)的分析。

(3) 預(yù)訓(xùn)練:預(yù)訓(xùn)練是一個在大量文本數(shù)據(jù)上訓(xùn)練語言模型的過程力九。通過預(yù)測文本中下一個詞語的概率耍铜,模型學(xué)習(xí)語言的語法、語義和模式跌前。預(yù)訓(xùn)練后的模型可以在新的數(shù)據(jù)上獲得更好的表現(xiàn)棕兼。

ChatGPT的訓(xùn)練過程分為以下三個階段:

第一階段:訓(xùn)練監(jiān)督策略模型

GPT3.5本身很難理解人類不同類型指令中蘊含的不同意圖,也很難判斷生成內(nèi)容是否是高質(zhì)量的結(jié)果抵乓。為了讓GPT3.5初步具備理解指令的意圖伴挚,首先會在數(shù)據(jù)集中隨機抽取問題靶衍,由人類標注人員,給出高質(zhì)量答案茎芋,然后用這些人工標注好的數(shù)據(jù)來微調(diào)GPT-3.5模型(獲得SFT模型颅眶,Supervised Fine-Tuning) 。此時的SFT模型在遵循指令/對話方面已經(jīng)優(yōu)于GPT-3田弥,但不一定符合人類偏好涛酗。

第二階段:訓(xùn)練獎勵模型(Reward Mode,RM)

這個階段的主要是通過人工標注訓(xùn)練數(shù)據(jù)(約33K個數(shù)據(jù)),來訓(xùn)練回報模型偷厦。在數(shù)據(jù)集中隨機抽取問題商叹,使用第一階段生成的模型,對于每個問題沪哺,生成多個不同的回答沈自。人類標注者對這些結(jié)果綜合考慮給出排名順序。這一過程類似于教練或老師輔導(dǎo)辜妓。

接下來枯途,使用這個排序結(jié)果數(shù)據(jù)來訓(xùn)練獎勵模型。對多個排序結(jié)果籍滴,兩兩組合酪夷,形成多個訓(xùn)練數(shù)據(jù)對RM模型接受一個輸入,給出評價回答質(zhì)量的分數(shù)孽惰。這樣晚岭,對于一對訓(xùn)練數(shù)據(jù),調(diào)節(jié)參數(shù)使得高質(zhì)量回答的打分比低質(zhì)量的打分要高勋功。

第三階段:采用PPO(Proximal Policy Optimization,近端策略優(yōu)化)強化學(xué)習(xí)來優(yōu)化策略坦报。

PPO的核心思路在于將Policy Gradient中On-policy的訓(xùn)練過程轉(zhuǎn)化為Off-policy,即將在線學(xué)習(xí)轉(zhuǎn)化為離線學(xué)習(xí),這個轉(zhuǎn)化過程被稱之為lmportance Sampling狂鞋。這一階段利用第二階段訓(xùn)練好的獎勵模型片择,靠獎勵打分來更新預(yù)訓(xùn)練模型參數(shù)。在數(shù)據(jù)集中隨機抽取問題骚揍,使用PPO模型生成回答字管,并用上一階段訓(xùn)練好的RM模型給出質(zhì)量分數(shù)。把回報分數(shù)依次傳遞信不,由此產(chǎn)生策略梯度嘲叔,通過強化學(xué)習(xí)的方式以更新PPO模型參數(shù)。


image.png
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末抽活,一起剝皮案震驚了整個濱河市硫戈,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌酌壕,老刑警劉巖掏愁,帶你破解...
    沈念sama閱讀 211,639評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件歇由,死亡現(xiàn)場離奇詭異,居然都是意外死亡果港,警方通過查閱死者的電腦和手機沦泌,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,277評論 3 385
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來辛掠,“玉大人谢谦,你說我怎么就攤上這事÷荞茫” “怎么了回挽?”我有些...
    開封第一講書人閱讀 157,221評論 0 348
  • 文/不壞的土叔 我叫張陵,是天一觀的道長猩谊。 經(jīng)常有香客問我千劈,道長,這世上最難降的妖魔是什么牌捷? 我笑而不...
    開封第一講書人閱讀 56,474評論 1 283
  • 正文 為了忘掉前任墙牌,我火速辦了婚禮,結(jié)果婚禮上暗甥,老公的妹妹穿的比我還像新娘喜滨。我一直安慰自己,他們只是感情好撤防,可當(dāng)我...
    茶點故事閱讀 65,570評論 6 386
  • 文/花漫 我一把揭開白布虽风。 她就那樣靜靜地躺著,像睡著了一般寄月。 火紅的嫁衣襯著肌膚如雪辜膝。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,816評論 1 290
  • 那天漾肮,我揣著相機與錄音内舟,去河邊找鬼。 笑死初橘,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的充岛。 我是一名探鬼主播保檐,決...
    沈念sama閱讀 38,957評論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼崔梗!你這毒婦竟也來了夜只?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,718評論 0 266
  • 序言:老撾萬榮一對情侶失蹤蒜魄,失蹤者是張志新(化名)和其女友劉穎扔亥,沒想到半個月后场躯,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,176評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡旅挤,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,511評論 2 327
  • 正文 我和宋清朗相戀三年踢关,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片粘茄。...
    茶點故事閱讀 38,646評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡签舞,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出柒瓣,到底是詐尸還是另有隱情儒搭,我是刑警寧澤,帶...
    沈念sama閱讀 34,322評論 4 330
  • 正文 年R本政府宣布芙贫,位于F島的核電站搂鲫,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏磺平。R本人自食惡果不足惜魂仍,卻給世界環(huán)境...
    茶點故事閱讀 39,934評論 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望褪秀。 院中可真熱鬧蓄诽,春花似錦、人聲如沸媒吗。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,755評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽闸英。三九已至锯岖,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間甫何,已是汗流浹背出吹。 一陣腳步聲響...
    開封第一講書人閱讀 31,987評論 1 266
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留辙喂,地道東北人捶牢。 一個月前我還...
    沈念sama閱讀 46,358評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像巍耗,于是被迫代替她去往敵國和親秋麸。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 43,514評論 2 348

推薦閱讀更多精彩內(nèi)容