我希望通過這門課,讓自己學(xué)習(xí)大模型的基礎(chǔ)知識繁调,將自己從系統(tǒng)構(gòu)建萨蚕、搜集數(shù)據(jù)、微調(diào)模型蹄胰、部署模型岳遥、評測模型這個pipeline徹底搞清楚,讓模型真正能走出命令行裕寨,成為AI原生應(yīng)用的雛形浩蓉。希望能夠了解如何利用大模型,基礎(chǔ)的學(xué)會從模型到應(yīng)用宾袜,在解決方案中得到好的應(yīng)用捻艳。希望能夠在公司的業(yè)務(wù)中得到真正的使用。
第一節(jié)課主要介紹了書生·浦語大模型全鏈路開源體系庆猫,豐富的周邊生態(tài)工具认轨,性能對比也很棒。
生態(tài)體系中工具也很強大月培,lagent嘁字,代碼解釋器的賦能,從模型到應(yīng)用的典型流程杉畜。個人感覺纪蜒,使用大模型,一定要告訴用戶沒有百分百的正確此叠,享受開放就需要接受這個現(xiàn)實纯续。 [圖片上傳失敗...(image-b947b-1711862276826)]
在XTuner加持下開展增量續(xù)訓(xùn)、有監(jiān)督微雕(全量/部分參數(shù)LoRA灭袁、QLoRA)猬错,對硬件要求也很友好! 部署方面茸歧,量化兔魂、推理(turbomind、pytorch)举娩、服務(wù)。
智能體框架Lagent介紹,多模態(tài)智能體工具箱AgentLego(好希望自己能夠掌握)铜涉。
因為平時更多在教育行業(yè)智玻,選擇一款中文友好的是首選要求,其次其中提到的“價值觀”優(yōu)化/本地化是InternLM吸引我的重要的一個點芙代! 更多詳細(xì)內(nèi)容還來自《InternLM2 Technical Report》 How to effectively extend the context length of LLMs is currently a hot research topic, since many downstream applications, such as Retrieval-Augmented Generation (RAG) (Gao et al.,2023) and agents (Xi et al., 2023), rely on long contexts.
其中提到代碼數(shù)據(jù)吊奢,對于程序員而言,和代碼打交道纹烹,很多時候也會使用大語言模型來輔助編寫代碼页滚,高質(zhì)量的訓(xùn)練代碼也比較重要,GitHub是重要源铺呵。正好也可以讓我們了解下代碼行數(shù)的多少裹驰,C++、JAVA還是名列前茅片挂。
最后幻林,總結(jié): InternLM2 大型語言模型,該模型在主觀和客觀評估中都表現(xiàn)出卓越的表現(xiàn)音念。InternLM2 已接受在超過 2T 的高質(zhì)量預(yù)訓(xùn)練語料庫上訓(xùn)練沪饺,涵蓋 1.8B、7B 和 20B 的模型大小闷愤, 使其適用于各種場景整葡。為了更好地支持長上下文,InternLM2采用 GQA 來降低推理成本讥脐,并額外接受了高達 32k 的訓(xùn)練上下文遭居。除了開源模型之外,我們還詳細(xì)介紹了我們?nèi)绾斡?xùn)練 InternLM2攘烛,包括訓(xùn)練框架魏滚、預(yù)訓(xùn)練文本數(shù)據(jù)、預(yù)訓(xùn)練代碼數(shù)據(jù)坟漱、預(yù)訓(xùn)練長文本數(shù)據(jù)和對齊數(shù)據(jù)鼠次。此外,解決偏好沖突在RLHF過程中遇到的情況芋齿,我們建議有條件的在線RLHF來協(xié)調(diào)各種偏好腥寇。