OpenAI又有新聞了因篇,這次是關于GPT-3的泞辐。此次允許用戶創(chuàng)建自定義版的GPT-3笔横,只要一行命令的微調就可以定制自己的不同應用的GPT-3。據OpenAI官方表示咐吼,此項微調可以讓不同應用的準確度能直接從83%提升到95%吹缔、錯誤率可降低50%。有網友大呼:我可以直接訓練我的聊天機器人了锯茄,這樣省時又省錢厢塘。
雖然GPT-3久負盛名,不過國內嘛肌幽,除了以前的新聞報道被國內吹爆外晚碾,其他沒啥用。畢竟這貨開始沒開放喂急,后來開放了格嘁,也沒對國內開放。在以前的報道中煮岁,見官方宣布取消GPT-3接口的等待機制讥蔽,讓所有滿足條件的開發(fā)人員都可快速申請使用它,看這意思是對所有用戶開放申請了画机,于是好奇的機智客趕緊去官方申請冶伞,結果一看傻眼了,敢情我們就“不滿足條件”步氏,我們國內根本沒在被允許的范圍內响禽。
因此此次允許用戶創(chuàng)建自定義版,肯定也沒咱們中國國內用戶的事兒了荚醒。雖然如此芋类,不過GPT的名氣和強大功能,的確挺讓人垂涎的界阁。所以侯繁,既然GPT-3我們玩不了,那我們可以玩GPT-2啊泡躯,當然這里并不是說官方的GPT-2贮竟,而是開源了的,GPT-2 Chinese版本较剃。也就是更符合我們國內用戶的中文版GPT咕别。
簡直直接滿足好奇心⌒囱ǎ可能有了解的朋友會暗笑惰拱,這還滿足好奇心,這個不是已經老了嗎啊送,GPT-2是哪一年的東西啦偿短。的確如此欣孤,GPT-2相比于GPT-3的確顯得“古老”,不過機智客覺得我們玩玩翔冀,體驗一下GPT還是可以的导街。目前,根據GitHub上的說明纤子,這個GPT-2的中文版是4月22之前的老版本搬瑰,也就是GPT2-Chinese-old_gpt_2_chinese_before_2021_4_22。我們可以下載下來控硼。這個是基于transformers的泽论。所以我們在配置環(huán)境的時候,要安裝帶有transformers的requirements.txt卡乾。
當然搭建環(huán)境還是要在獨立的虛擬環(huán)境里翼悴。環(huán)境搭配好,然后就是準備中文語料幔妨,當然這個項目里也貼心地提供了——很多項目的README.md都有鹦赎,比如訓練數(shù)據啦,預訓練模型啦什么的误堡,幾乎都是手把手教了——前提是你要具備基本的編程或計算機相關知識古话。環(huán)境好了,語料有了锁施,然后就可以訓練我們自己的AI了陪踩。當然現(xiàn)在玩這類,都需要GPU悉抵。所以是自己的主機肩狂,有比較好點的顯卡(當然是越貴越好)。
當然了姥饰,這兩年大模型一個接一個傻谁,越來越強大。時過境遷列粪,GPT-2已然不如當年驚艷栅螟,當然不是特別新的和突出的,而且現(xiàn)在開源界遍地開花篱竭,也不是只有這一個開源項目可用。不過這里通過試玩一下體驗下傳說中的GPT步绸。