在我們最近的幾篇文章中,我們一直在提到圍繞大型語言和生成 AI 模型的炒作奋单,以及如何減少推理和訓(xùn)練時(shí)間猫十。隨著我們的用戶開始使用這些模型并對其進(jìn)行微調(diào),他們自然希望微調(diào)和部署包含數(shù)千億參數(shù)的模型贷笛,以提高其特定用例的性能宙项。
通常,這是一項(xiàng)要求非常高的任務(wù)汇荐,需要大量計(jì)算和 40GB 檢查點(diǎn)的存儲(chǔ)盆繁。這在普通計(jì)算機(jī)硬件上是不可行的。除了所需的電力和存儲(chǔ)之外革娄,這種性質(zhì)的微調(diào)模型需要很長時(shí)間才能運(yùn)行冕碟,而且本質(zhì)上非常昂貴——直到現(xiàn)在。
介紹Huggingface的PEFT庫厕妖,該庫支持LoRA我衬、Prefix Tuning等Parameter Efficient Fine-tuning方法饰恕,無需對所有模型參數(shù)進(jìn)行微調(diào)井仰,即可使預(yù)訓(xùn)練語言模型高效適配各種下游應(yīng)用破加。這些不同的技術(shù)實(shí)現(xiàn)了與完全微調(diào)相當(dāng)?shù)男阅堋?/p>