在GPT火出來(lái)以前凛剥,人工智能最成功的應(yīng)用就是計(jì)算機(jī)視覺,比如我們都知道的人臉識(shí)別轻姿,更廣泛的圖像識(shí)別已經(jīng)成功進(jìn)如商業(yè)領(lǐng)域應(yīng)用(自動(dòng)駕駛)犁珠。
但是,它遠(yuǎn)遠(yuǎn)達(dá)不到通用智能的程度互亮,就在于他只能識(shí)別圖片犁享,并且你教他什么它會(huì)什么,沒有泛化能力——就像你教一個(gè)學(xué)生豹休,你教一個(gè)他會(huì)一個(gè)炊昆,不能舉一反三極大限制他的智能范圍。
而自然語(yǔ)言處理自從transformer架構(gòu)提出以后慕爬,大規(guī)模無(wú)監(jiān)督的數(shù)據(jù)訓(xùn)練窑眯,使得模型把語(yǔ)言的規(guī)則和特征“學(xué)會(huì)”了(不斷通過(guò)“損失函數(shù)”去校正),并全部表征為向量空間的向量(這些向量記錄了“分詞”上千個(gè)維度的特征)医窿。
不同于人類教給他規(guī)則磅甩,是機(jī)器通過(guò)大規(guī)模的數(shù)據(jù)學(xué)習(xí)到了人類語(yǔ)言的應(yīng)用規(guī)律,至于具體他到底學(xué)會(huì)了哪些規(guī)律姥卢,沒人知道卷要,是一個(gè)黑盒,只有當(dāng)我們?cè)谕ㄟ^(guò)任務(wù)微調(diào)之后才知道他到底有哪些能力独榴。
這也是為什么大模型事實(shí)上不會(huì)太在乎用的語(yǔ)料中文多一點(diǎn)還是英文多一點(diǎn)僧叉。
比如OPENAI的大模型,它們用的中文語(yǔ)料其實(shí)是非常少的棺榔,但是在理解能力表現(xiàn)上是不差的瓶堕,只是輸出的內(nèi)容質(zhì)量沒那么好(通常讓他用英文回答質(zhì)量要高于中文)。這就和訓(xùn)練的語(yǔ)料質(zhì)量有關(guān)了症歇,你訓(xùn)練的高質(zhì)量語(yǔ)料如果不多郎笆,那么也沒法指望人家輸出多高質(zhì)量的東西谭梗。
國(guó)內(nèi)清華GLM模型也是一樣,語(yǔ)料中英文其實(shí)沒有過(guò)于的在意宛蚓,因?yàn)樽罱K都是要嵌入到向量空間的激捏,對(duì)于機(jī)器來(lái)講只是向量的特征的固定和推理運(yùn)算。
這也能理解凄吏,馬斯克成立的Xai公司远舅,網(wǎng)站首頁(yè)就寫著“Understand the Universe”(理解宇宙),看來(lái)馬斯克是希望用大模型能揭開整個(gè)宇宙的奧秘痕钢。因?yàn)檫@個(gè)東西的厲害之處图柏,不光是他能理解人類語(yǔ)言,學(xué)會(huì)人類知識(shí)盖喷,而是他有邏輯思維的可能爆办,產(chǎn)生新的知識(shí)。