HumanEval: Hand-Written Evaluation Set 一個(gè)代碼評(píng)測(cè)基準(zhǔn)奉件。 From 《Evaluating Large Language Models...
![240](https://upload.jianshu.io/users/upload_avatars/7720139/c3ea8ab6-7016-4fb0-bd47-877746b5aac8.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
有一篇文章概述了先進(jìn)的prompt工程技術(shù):https://luxiangdong.com/2023/08/08/advprompt/[https://luxiangdong...
Prompt是什么 NLP發(fā)展的四個(gè)階段(1)完全有監(jiān)督機(jī)器學(xué)習(xí):word本質(zhì)是特征哮翘,主要在做特征工程(2)完全有監(jiān)督深度學(xué)習(xí):開(kāi)始搞卷積和Attention(3)預(yù)訓(xùn)練:預(yù)...
OpenAI官方提供的Prompt技巧弹澎,給OpenAI的模型提供更清晰有效的指令嫉柴。翻譯 From : https://help.openai.com/en/articles/...
什么是持續(xù)集成 代碼開(kāi)發(fā) -> 代碼提交 -> 服務(wù)器編譯建瘫、測(cè)試钾虐、打包 -> 服務(wù)器部署(大規(guī)模部署用 docker) 上面這套流程中除了前兩個(gè)癞谒,其他的都自動(dòng)執(zhí)行,就是CI(...
分位數(shù)回歸 Quantile Regression 先說(shuō)一下線性回歸 & 多項(xiàng)式回歸:假定一個(gè)函數(shù) f(x) 鳖粟,讓函數(shù)盡可能擬合訓(xùn)練數(shù)據(jù)社裆,確定函數(shù)的未知參數(shù)拙绊。一般通過(guò)最小化M...
Executable Code Actions Elicit Better LLM Agentshttps://arxiv.org/pdf/2402.01030.pdf[ht...
Scalable agent alignment via reward modeling: a research direction https://arxiv.org/pd...
這篇文章揭示了ChatGPT Plugins背后的技術(shù)路線 來(lái)自微軟的論文:TaskMatrix.AI: Completing Tasks by Connecting Fou...
推薦系統(tǒng)召回四模型之:全能的FM模型[https://zhuanlan.zhihu.com/p/58160982](1)從多路召回到FM做統(tǒng)一的召回模型檩赢,將所有特征劃分為(U...
推薦系統(tǒng)經(jīng)歷兩個(gè)階段:傳統(tǒng)推薦模型和深度學(xué)習(xí)模型 第一階段:傳統(tǒng)推薦模型(協(xié)同過(guò)濾吕嘀,矩陣分解,LR, FM, FFM, GBDT)贞瞒。 協(xié)同過(guò)濾體現(xiàn)了最樸素的推薦思想偶房,同類相聚...