240 發(fā)簡信
IP屬地:北京
  • 敏捷軟件開發(fā)--原則

    1. 單一職責(zé)原則(Single Responsibility Principle, SRP) 每個類應(yīng)該只有一個職責(zé)蛤虐,且該職責(zé)應(yīng)該完全封裝在類...

    0.2 49 0 1
  • Resize,w 360,h 240
    人人都能懂的Transformer架構(gòu)

    Transformer架構(gòu)用做樣本數(shù)據(jù)的訓(xùn)練以及訓(xùn)練預(yù)輸出文字的預(yù)測懒鉴,在訓(xùn)練的時候輸入一些樣本的數(shù)據(jù),然后把這些數(shù)據(jù)第一步轉(zhuǎn)換成對應(yīng)的數(shù)字(In...

  • Resize,w 360,h 240
    Transformer架構(gòu)

    簡單分析下Transformer架構(gòu)纹腌,即大語言模型底層基于什么樣的架構(gòu)訓(xùn)練出來的 在進(jìn)行訓(xùn)練之前斤程,首選需要進(jìn)行3個步驟 1速警、把文字?jǐn)?shù)字化 2瓶蚂、把...

  • Resize,w 360,h 240
    大模型訓(xùn)練關(guān)鍵兩步

    大模型的核心原理是基于深度學(xué)習(xí),通過多層神經(jīng)網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)建模和特征提取夏跷。目前大部分的大模型采用的是Transformer架構(gòu)哼转,它采用了自注意力機(jī)...

  • Fine-tuning

    上一篇介紹了RAG(檢索增強(qiáng)生成),這篇文章介紹LLM進(jìn)行特定領(lǐng)域的知識或?qū)S袛?shù)據(jù)需要進(jìn)行特定的另一種方式Fine-tuning Fine-tu...

    0.1 38 0 1
  • Resize,w 360,h 240
    RAG(檢索增強(qiáng)生成)

    上一篇文章介紹了LLM槽华,LLM的知識僅限于其所訓(xùn)練的數(shù)據(jù)壹蔓。想讓LLM了解特定領(lǐng)域的知識或?qū)S袛?shù)據(jù)需要進(jìn)行特定的處理,目前有三種方式: 1猫态、RAG...

    0.1 65 0 1
  • Resize,w 360,h 240
    LLM

    從2022年11月對話交互式發(fā)布以來佣蓉,引發(fā)了人工智能(Artificial Intelligence)生成內(nèi)容(AIGC)技術(shù)的質(zhì)變,標(biāo)志著人類...

  • 二叉樹路徑總和

    ///路徑總和I 路徑總和leetcode鏈接[https://leetcode.cn/problems/path-sum/] /* 1.確定遞...

  • 二叉樹的所有路徑

    257. 二叉樹的所有路徑[https://leetcode.cn/problems/binary-tree-paths/] 給你一個二叉樹的根...

個人介紹
互聯(lián)網(wǎng)碼農(nóng)
Github地址:
https://github.com/TottiLv
WeChat:704555346
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品