第一層 LLMs to Natural Language Processing (NLP)
第一重 ChatGLM-6B
【ChatGLM-6B入門-一】清華大學(xué)開源中文版ChatGLM-6B模型學(xué)習(xí)與實戰(zhàn)
介紹:ChatGLM-6B 環(huán)境配置 和 部署
【ChatGLM-6B入門-二】清華大學(xué)開源中文版ChatGLM-6B模型微調(diào)實戰(zhàn)
ChatGLM-6B P-Tuning V2 微調(diào):Fine-tuning the prefix encoder of the model.
【ChatGLM-6B入門-三】
ChatGLM 特定任務(wù)微調(diào)實戰(zhàn)
【ChatGLM-6B入門-四】ChatGLM + LoRA 進(jìn)行finetune
介紹:ChatGLM-6B LoRA 微調(diào):Fine-tuning the low-rank adapters of the model.
ChatGLM-6B 小編填坑記
介紹:ChatGLM-6B 在 部署和微調(diào) 過程中 會遇到很多坑勉抓,小編掉坑了很多次贾漏,為防止 后人和小編一樣繼續(xù)掉坑,小編索性把遇到的坑都填了藕筋。
【LLMs學(xué)習(xí)】關(guān)于大模型實踐的一些總結(jié)
【LLMs 入門實戰(zhàn) —— 十一 】基于 PEFT 的高效 ChatGLM-6B 微調(diào)