引言
2022年11月30日旗吁,OpenAI公布了他們的新產(chǎn)品:ChatGPT。隨后ChatGPT火得一塌糊涂哮肚。通過b站搜索“ChatGPT”的結(jié)果:
搞學(xué)術(shù)的想著從它身上找點創(chuàng)新登夫,吃瓜群眾吃著這鍋熱瓜,想賺錢的眼睛賊亮??????
由于OpenAI不支持對中國服務(wù)允趟,就有人通過淘寶賣ChatGPT注冊賬號賺了不少錢(月銷達(dá)到了3萬)
我也好奇看看這個新玩意恼策,于是我試著注冊賬號。拼窥。戏蔑。
卻發(fā)現(xiàn):
不過最后呢,我還是成功了鲁纠。
這篇博客聊一下我使用的情況总棵、ChatGPT的原理以及存在的問題。
ChatGPT的使用
說實話改含,我用得有點晚了情龄,之前一直忙七七八八的事,昨天才開始使用的捍壤,我登錄進(jìn)去之后出于禮貌骤视,首先用英文發(fā)了句“hi”:
看它也挺有禮貌的回了我,但是鹃觉,专酗,發(fā)第二句就出錯了。
可能是網(wǎng)絡(luò)問題盗扇,也可能是它太火了祷肯,訪問人數(shù)太多吧
我又試著用中文跟它聊天:
它回復(fù)中文了,我好開心疗隶,它是一個字一個字的回答的佑笋,因此我很期待的等啊等,斑鼻,結(jié)果卻報了個網(wǎng)絡(luò)錯誤蒋纬。(難過。。)
今天蜀备,我?guī)臀依蠋熞沧粤藗€賬號关摇,她問了下ChatGPT關(guān)于糖尿病的問題,ChatGPT還是給出了挺好的回答:
我老師讓它寫段條件隨機場的代碼:
可惜寫著寫著掉線了
這里用的是英文碾阁,不過我在網(wǎng)上也看了很多中文的問題拒垃,也回答得挺好。
以上就是我的使用情況瓷蛙,總體來說還行,就是網(wǎng)絡(luò)不太好總掉線
下面我講一下它的一個簡單原理吧~
由于ChatGPT的論文還沒出來戈毒,也沒有提供開源代碼艰猬,我只能通過OpenAI的博客和相關(guān)研究等來了解ChatGPT了。
首先了解一下OpenAI公司
OpenAI
OpenAI是一個人工智能研究實驗室埋市,由營利組織 OpenAI LP 與母公司非營利組織 OpenAI Inc 組成冠桃,目的是促進(jìn)和發(fā)展友好的人工智能,讓更多人受益道宅。
OpenAI 有兩位創(chuàng)始人其中一位是埃隆·馬斯克食听,這個大家應(yīng)該都認(rèn)識,就是特斯拉的CEO污茵,提出造火箭帶人類星際旅行的人樱报,《硅谷鋼鐵俠》里說的就是他:
OpenAI 另一個創(chuàng)始人是原Y Combinator(美國著名創(chuàng)業(yè)孵化器)總裁山姆·阿爾特曼,美國斯坦福大學(xué)計算機系輟學(xué)生泞当。
總的來說OpenAI是不差錢了迹蛤,在ChatGPT之前研發(fā)的GPT3的訓(xùn)練就花了1200萬美元。
OpenAI除了今天的主角之外襟士,還有很多產(chǎn)品盗飒,
如:OpenAI曾跟Github合作,開發(fā)了智能編程助手 Copilot :
這里說的是“產(chǎn)品”陋桂,雖然OpenAI曾說自己是非營利機構(gòu)逆趣,但從出產(chǎn)品的情況來看,有趨向營利的目的嗜历,例如:ChatGPT宣渗,很多人都關(guān)心它會不會開源,而目前它的論文還沒出來秸脱,它的前一代InstructGPT沒有開源落包,就連前前代GPT3都沒開源,從趨勢上判斷摊唇,ChatGPT開源的可能性有點小了咐蝇。
ChatGPT原理
要講ChatGPT的原理,不得不向上追溯這樣的一個鏈:
從上圖來看,有兩條鏈有序,上面那條是OpenAI抹腿,下面是Google,其根源還在于2017年Google技術(shù)提出的 Transformer[1]
而Transformer由Encoder和Decoder組成:
如果看起來復(fù)雜旭寿,請看下面這張圖:
Google的BERT系列使用的是Transformer的Encoder部分警绩,而OpenAI的GPT系列使用的是Decoder部分。
Google提出的Transformer一開始是用于機器翻譯盅称,Encoder用于輸入肩祥,Decoder用于輸出,如:英語翻德語缩膝,Encoder就主要是學(xué)習(xí)到英語句子中的詞及其關(guān)系混狠,然后丟給Decoder,Decoder得到后進(jìn)行處理并輸出德語出來疾层。
其中将饺,Encoder的輸入是整個句子,比如一句話“I love China”痛黎,其中"love"的上文是"I",下文是“China”予弧,而Decoder輸出是一個詞一個詞的輸出的如“我愛中國”的輸出順序是“我”、“愛”湖饱、“中國”掖蛤,
從上可知Encoder的特點是:在結(jié)構(gòu)上對上下文的理解更強,更適合嵌入式的表達(dá)井厌,因此它比較適合做“完形填空”式的任務(wù)坠七;而Decoder的特點是:基于上文而不知道下文,因此它比較適合做“根據(jù)上文推測下文”的任務(wù)旗笔。
由上可知彪置,Decoder就適合ChatGPT這種聊天的場景了。
回到前面的圖蝇恶,在ChatGPT之前是由:GPT->GPT2->GPT3拳魁,再然后有一個叫:InstructGPT[2]的,我從ChatGPT官網(wǎng)上看到這樣一句話:
請注意我用藍(lán)色框 框起來的這里,他說 ChatGPT是InstructGPT的姊妹,她倆都是“基于人類反饋的強化學(xué)習(xí)”(后面這句是我從文獻(xiàn)中獲得的)
ChatGPT和InstructGPT與之前GPT系列模型的區(qū)別就在于“基于人類反饋的強化學(xué)習(xí)”狼电。
通俗來講,我們可以把之前的GPT模型想象成一大堆數(shù)據(jù)訓(xùn)練出來的模型授舟,在應(yīng)用時,這模型有個致命缺點就是它輸出的內(nèi)容對人類不太友好(比如輸出有毒的內(nèi)容或編造出來的內(nèi)容贸辈,不符合人類邏輯等等)
“基于人類反饋的強化學(xué)習(xí)”释树,就是在訓(xùn)練GPT模型之前,先用一批專家的知識來訓(xùn)練一個反饋模型,然后再訓(xùn)練GPT3模型奢啥,如下圖:
從圖中可知秸仙,該模型與之前GPT模型區(qū)別就像是“注入了人類的意識”,基于人類反饋模型訓(xùn)練的模型就被叫做“基于人類反饋的強化學(xué)習(xí)”(Reinforcement Learning from Human Feedback)
原理就簡單介紹到這里了桩盲,如果你有興趣的話寂纪,給我留言,激勵我出更多GPT相關(guān)內(nèi)容赌结。
ChatGPT的應(yīng)用
ChatGPT的應(yīng)用就很多了捞蛋,這里簡單提一下,如:寫作柬姚、寫代碼襟交、聊天、指導(dǎo)決策等等伤靠。。
我老師關(guān)注醫(yī)療方面的應(yīng)用啼染,于是我也搜了一下宴合,
有人對ChatGPT醫(yī)療建議進(jìn)行圖靈測試[3],發(fā)現(xiàn)機器人對于不同的問題迹鹅,回答的正確分類在49.0%到85.7%之間卦洽,平均而言,患者對聊天機器人功能的信任度反應(yīng)較弱斜棚,并隨著問題任務(wù)與健康相關(guān)的復(fù)雜性增加阀蒂,信任度也會降低,但整體而言弟蚀,ChatGPT對患者問題的回答與人類提供者對問題的回答難以區(qū)分蚤霞,外行似乎相信使用聊天機器人來回答風(fēng)險較低的健康問題。
看來未來應(yīng)用于醫(yī)療也不是不可能义钉。
到這里昧绣,就不得不擔(dān)心ChatGPT可能帶來的問題了。
ChatGPT可能存在的問題
什么某些人失業(yè)啊捶闸,這啥啥的夜畴,我就不說了。
我想提的是“道德問題”删壮,這靈感也是來源于我老師贪绘。
我也搜了一下,確實有這方面的文獻(xiàn)[4]央碟。
這也可想而知的税灌,該模型的訓(xùn)練注入了人類老師的標(biāo)記嘛。
而該聊天模型功能強大,能作為工作垄琐、決策的好助手边酒,那么它作為一個機器人,如何對自己說的話負(fù)責(zé)呢狸窘?
這就存在自動駕駛一樣的問題了墩朦。
總結(jié)
本文主要講了以下內(nèi)容:
- 我對ChatGPT的使用過程;
- OpenAI的簡單介紹翻擒;
- ChatGPT的簡單原理:
Transformer的Encoder->GPT->GPT2->GPT3->InstructGPT->ChatGPT氓涣;
以及,“基于人類反饋的強化學(xué)習(xí)”是什么陋气; - ChatGPT的應(yīng)用劳吠;
- ChatGPT可能帶來的道德問題。
參考文獻(xiàn)
[1] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.
[2] Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J]. arXiv preprint arXiv:2203.02155, 2022.
[3] Nov O, Singh N, Mann D M. Putting ChatGPT's Medical Advice to the (Turing) Test[J]. medRxiv, 2023: 2023.01. 23.23284735.
[4] Krügel S, Ostermaier A, Uhl M. The moral authority of ChatGPT[J]. arXiv preprint arXiv:2301.07098, 2023.