最近工作與大模型息息相關(guān)捺球,一入AI深似海街图,大模型產(chǎn)業(yè)日新月異。毫不夸張的說我上個月才做的技術(shù)調(diào)研懒构,這個月就已經(jīng)過時了,好幾次在隔壁部門聽見同事談?wù)摯竽P拖嚓P(guān)問題耘擂,走進聽是聽見了但仿佛在說外星語胆剧。大模型領(lǐng)域有很多專業(yè)詞匯,比如什么AGI、AIGC秩霍、多模態(tài)篙悯、Token、RAG铃绒、COT鸽照、SFT、LORA等等矮燎,對非這個行業(yè)從業(yè)者來說,初次見到通常不明所以诞外,特此在這篇文章里總結(jié)工作上用到的及調(diào)研過的一些AI領(lǐng)域?qū)I(yè)術(shù)語灾票,涵蓋基礎(chǔ)概念、機器學(xué)習(xí)&深度學(xué)習(xí)刊苍、NLP、多模態(tài)正什、智能體等多個類別
基礎(chǔ)概念
概念 | 釋義 |
---|---|
LLM(大語言模型, Large Language Model) | 基于海量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,如GPT系列脾拆、BERT等,能夠理解和生成自然語言文本名船,能夠進行復(fù)雜對話、文本創(chuàng)作等任務(wù)渠驼。 |
AGI(通用人工智能, Artificial General Intelligence) | 這是AI研究的理想目標(biāo)鉴腻,追求創(chuàng)造能像人類一樣學(xué)習(xí)新技能、解決廣泛問題的智能體爽哎,目前仍處于理論探索和初步實踐階段。 |
AIGC (人工智能生成內(nèi)容) | 利用AI技術(shù)生成的各種內(nèi)容课锌,從文本祈秕、圖像到視頻雏胃,利用算法創(chuàng)造新穎、個性化的內(nèi)容瞭亮,如AI藝術(shù)畫作或定制文章。 |
Prompt(提示詞) | 在AI大模型中用于引導(dǎo)模型生成特定類型輸出的上下文信息或指令统翩,例如,告訴模型“寫一篇科幻故事”唆缴。 |
提示工程(Prompt Engineering) | 設(shè)計和優(yōu)化輸入提示以獲得所需模型輸出的過程,涉及精心設(shè)計輸入提示艳丛,以優(yōu)化模型輸出的準(zhǔn)確性、創(chuàng)意或特定風(fēng)格氮双,是提高AI大模型響應(yīng)質(zhì)量的關(guān)鍵策略。 |
多模態(tài)(Multimodal) | 文本戴差、圖像铛嘱、音頻等都是一種模態(tài),多模態(tài)指能夠處理文本墨吓、圖像、音頻等多種類型數(shù)據(jù)的模型帖烘,實現(xiàn)對多模態(tài)信息的綜合理解和分析。 |
推理(Inference) | 大模型的推理(Inference)是指使用已經(jīng)訓(xùn)練好的模型進行實際應(yīng)用秘症,生成預(yù)測或輸出結(jié)果的過程。例如大模型根據(jù)問題生成答案役耕,根據(jù)文本描述生成圖片等。 |
涌現(xiàn)(Emergence) | 指的是系統(tǒng)中新的性質(zhì)瞬痘、模式或行為在更簡單的組件相互作用下自發(fā)形成的現(xiàn)象氏义。 |
對齊 | AI價值對齊是指讓大模型的能力和行為跟人類的價值、真實意圖和倫理原則相一致邻邮,確保人類與人工智能協(xié)作過程中的安全與信任。 |
Token | 通常指的是文本或數(shù)據(jù)中的一個基本單元或符號筒严,在自然語言處理中,單詞是最常見的 token鸭蛙。例如,“你好娶视,世界!”會被分解為“你”寝凌、“好”、“较木,”、“世界”和“伐债!”這樣的token,便于機器理解和處理峰锁。 |
智能體(Agent) | 在環(huán)境中感知喇喉、思考并采取行動的自主AI系統(tǒng)。 |
世界模型 | 指AI系統(tǒng)內(nèi)部構(gòu)建的對現(xiàn)實世界的抽象認(rèn)知模型拣技,用于預(yù)測、規(guī)劃和決策膏斤,是實現(xiàn)高級人工智能的關(guān)鍵組成部分。 |
大模型幻覺 | 幻覺是指大型語言模型生成的內(nèi)容看似合理但實際上不準(zhǔn)確或虛構(gòu)的信息。原因是盡管模型可以生成符合語言結(jié)構(gòu)的文本,但它們并不具備真正的理解能力屈芜,只是基于概率生成下一個詞語喻粹。 |
具身智能 | 擁有物理實體的智能體(如機器人)草巡,通過與環(huán)境的互動學(xué)習(xí)和適應(yīng),實現(xiàn)更接近生物體的智能表現(xiàn)山憨。 |
端到端(End-to-End,簡稱E2E) | 指的是一個系統(tǒng)或模型能夠直接提供從輸入數(shù)據(jù)到輸出數(shù)據(jù)的解決方案郁竟,而不是通過傳統(tǒng)的分模塊處理方式 |
機器學(xué)習(xí)
概念 | 釋義 |
---|---|
機器學(xué)習(xí) (Machine Learning, ML) | AI的子領(lǐng)域,讓計算機能夠從經(jīng)驗中學(xué)習(xí)并提升任務(wù)執(zhí)行能力棚亩。就像一個孩子通過不斷嘗試和反饋學(xué)會騎自行車,ML模型通過分析大量數(shù)據(jù)和調(diào)整內(nèi)部規(guī)則拒担,逐步提高其預(yù)測或決策的準(zhǔn)確性。 |
深度學(xué)習(xí)(Deep Learning) | 這是機器學(xué)習(xí)的一個分支从撼,通過構(gòu)造多層神經(jīng)網(wǎng)絡(luò)來模擬人類大腦的深層處理機制,能夠自動提取數(shù)據(jù)中的復(fù)雜特征低零,比如在人臉識別中區(qū)分眼睛拯杠、鼻子等細(xì)微特征,進而實現(xiàn)高度精確的分類或預(yù)測潭陪。 |
Transformer | 這是一種革命性的神經(jīng)網(wǎng)絡(luò)架構(gòu),通過自注意力機制有效分析序列數(shù)據(jù)依溯,解決了長距離依賴問題,是大模型的核心架構(gòu) |
神經(jīng)網(wǎng)絡(luò)(Neural Network) | 神經(jīng)網(wǎng)絡(luò)是人工智能領(lǐng)域的核心概念之一黎炉,模仿人腦的結(jié)構(gòu)和功能,用來解決復(fù)雜的計算和模式識別問題慷嗜。它們由許多稱為“神經(jīng)元”或“節(jié)點”的簡單計算單元組成丹壕,這些單元互相連接形成網(wǎng)絡(luò)薇溃。每個神經(jīng)元對輸入信息做簡單運算后,將信號傳給下一個神經(jīng)元沐序,層層傳遞,最終完成復(fù)雜的計算任務(wù),如圖像識別或語音理解逛尚。 |
CNN(卷積神經(jīng)網(wǎng)絡(luò), Convolutional Neural Network) | 特別設(shè)計用于圖像識別的“視覺偵探”。它通過一系列“卷積層”工作绰寞,這些層能夠自動檢測圖像中的邊緣、紋理等基礎(chǔ)特征滤钱,并逐漸構(gòu)建出更復(fù)雜的圖像理解,比如識別一只貓是否在圖片中件缸,即使它的姿態(tài)各異。 |
RNN(循環(huán)神經(jīng)網(wǎng)絡(luò), Recurrent Neural Network) | 時間序列數(shù)據(jù)的“記憶大師”他炊。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)不同,RNN具有循環(huán)結(jié)構(gòu)痊末,使其能夠處理如語言、股票價格等序列數(shù)據(jù)凿叠,在每個時間點考慮之前的信息,這使得它在預(yù)測未來事件或理解文本上下文時非常有效盒件。 |
GPT(Generative Pre-trained Transformer) | 作為另一款基于Transformer的模型,GPT專注于生成連貫履恩、有創(chuàng)意的文本,從文章寫作到故事構(gòu)思切心,它都能根據(jù)初始提示產(chǎn)出令人驚嘆的續(xù)篇片吊,展示了強大的語言生成能力协屡。 |
BERT(Bidirectional Encoder Representations from Transformers) | 自然語言處理領(lǐng)域的“雙向翻譯官”。BERT利用Transformer架構(gòu)學(xué)習(xí)文本的雙向上下文信息肤晓,意味著它能同時理解一個詞在句子前后的含義,從而在問答补憾、情感分析等任務(wù)中表現(xiàn)出色。 |
知識蒸餾(Knowledge Distillation) | 通過讓小模型學(xué)習(xí)大模型的決策過程和輸出盈匾,就像一位經(jīng)驗豐富的導(dǎo)師將其知識濃縮傳授給徒弟,從而在減少計算資源的同時保持高性能削饵。 |
預(yù)訓(xùn)練 (Pre-training) | 在特定任務(wù)的數(shù)據(jù)上先訓(xùn)練模型,獲取一般語言知識启昧,之后再針對具體任務(wù)微調(diào)。 |
微調(diào) (Fine-tuning) | 在預(yù)訓(xùn)練模型的基礎(chǔ)上密末,針對特定任務(wù)進行額外訓(xùn)練的過程。 |
參數(shù)(Parameter) | 是指模型中的可訓(xùn)練變量苏遥,這些變量決定了模型的行為和性能。具體來說田炭,參數(shù)通常是神經(jīng)網(wǎng)絡(luò)中的權(quán)重和偏置漓柑,它們在訓(xùn)練過程中通過梯度下降等優(yōu)化算法進行更新。參數(shù)量是衡量模型規(guī)模的一個重要指標(biāo)辆布。如Llama 7B,表示擁有70億參數(shù)量锋玲。 |
權(quán)重(Weights) | 連接神經(jīng)元的權(quán)重是最常見的參數(shù)。每個權(quán)重決定了一個輸入信號對輸出信號的影響程度。 |
生成模型(Generative Model) | 這類模型能夠基于已知數(shù)據(jù)模式生成新的數(shù)據(jù)實例伞插,包括文本、圖像等舀瓢,展現(xiàn)創(chuàng)造性輸出能力,如GPT-3京髓。 |
擴散模型(Diffusion Model) | 這是一種創(chuàng)意十足的生成模型,想象一下將一滴墨水在水中慢慢擴散開來堰怨,最終形成圖案的過程蛇摸,但這里的“墨水”變成了數(shù)據(jù),如圖像皇型、聲音或文本砸烦。通過模擬物理世界中的擴散現(xiàn)象,它從隨機噪聲開始唬格,一步步“澄清”出清晰的內(nèi)容,尤其擅長創(chuàng)造細(xì)膩的視覺藝術(shù)和復(fù)雜的數(shù)據(jù)結(jié)構(gòu)购岗。 |
模型量化(Model Quantization) | 減少模型存儲和計算需求的技術(shù),通過降低參數(shù)精度门粪,如將32位浮點數(shù)轉(zhuǎn)為8位整數(shù),實現(xiàn)模型瘦身乾吻。 |
Token | 通常指的是文本或數(shù)據(jù)中的一個基本單元或符號,在自然語言處理中绎签,單詞是最常見的 token。例如诡必,“你好,世界爸舒!”會被分解為“你”、“好”碳抄、“,”剖效、“世界”和“!”這樣的token璧尸,便于機器理解和處理。 |
Tokenizer | 用于將連續(xù)的文本序列(如句子或段落)分割成更小單位的工具或算法爷光,例如單詞、短語或符號蛀序,這些單元通常稱為 "token"。 |
Embedding(嵌入) | 將文本轉(zhuǎn)化數(shù)值向量的技術(shù)遣鼓,便于機器處理,例如骑祟,將“貓”表示為一個100 維的向量 [0.21, -0.34, 0.65, ...],這個向量捕捉了“貓”的語義信息次企。 |
上下文窗口 (Context Window) | 語言模型處理文本時考慮的前后詞元范圍潜圃,用于捕捉文本的語境信息。較大的窗口提供更豐富語義谭期,幫助生成連貫、準(zhǔn)確的文本崇堵,避免歧義,改善上下文依賴處理鸳劳。例如,GPT-4 Turbo的128k Token上下文窗口讓它能生成高度相關(guān)和細(xì)膩的回復(fù)涵紊。 |
MoE(Mixture of Experts) | 一種在深度學(xué)習(xí)中使用的模型架構(gòu),旨在提高模型的性能和效率摸柄。MoE模型通過將不同的子模型(稱為“專家”)組合在一起,每個專家專門處理特定的輸入特征或任務(wù)驱负,從而實現(xiàn)更好的泛化能力和計算效率。 |
數(shù)據(jù)標(biāo)注 | 是指為機器學(xué)習(xí)和人工智能模型準(zhǔn)備訓(xùn)練數(shù)據(jù)時的過程跃脊,即為數(shù)據(jù)集中的樣本添加標(biāo)簽、標(biāo)注或注釋器瘪,以便模型能夠理解和學(xué)習(xí)數(shù)據(jù)的含義和特征。 |
數(shù)據(jù)清洗(Data Cleaning) | 是對數(shù)據(jù)集進行詳細(xì)檢查和修正的過程橡疼,旨在提升數(shù)據(jù)的質(zhì)量和可靠性。這一過程專注于識別并糾正數(shù)據(jù)中的錯誤欣除、不完整信息继阻、不一致性及冗余現(xiàn)象 |
練丹 | 在機器學(xué)習(xí)領(lǐng)域废酷,指訓(xùn)練大規(guī)模的神經(jīng)網(wǎng)絡(luò)模型,特別是預(yù)訓(xùn)練語言模型澈蟆,如GPT、BERT等趴俘。這個過程需要大量的數(shù)據(jù)、算力和技巧太惠,就像煉制靈丹一樣。煉丹重點描述模型調(diào)優(yōu)的過程凿渊。這個過程往往需要大量的嘗試和經(jīng)驗,包括選擇合適的模型結(jié)構(gòu)埃脏、優(yōu)化算法、損失函數(shù)彩掐、學(xué)習(xí)率等,就像煉丹一樣需要精細(xì)的操作和耐心的等待堵幽。 |
蒸餾 | 模型蒸餾是一種模型壓縮技術(shù),它的目標(biāo)是將一個大型谐檀、復(fù)雜的模型(被稱為教師模型)的知識轉(zhuǎn)移到一個小型、簡單的模型(被稱為學(xué)生模型)中麦撵。 |
挖礦 | 在機器學(xué)習(xí)中,"挖礦"通常指的是數(shù)據(jù)挖掘免胃,即從大量的惫撰、未經(jīng)過處理的數(shù)據(jù)中提取有用信息和知識的過程。這個過程包括數(shù)據(jù)清洗厨钻、數(shù)據(jù)轉(zhuǎn)換、數(shù)據(jù)分析夯膀、模式識別等步驟。在深度學(xué)習(xí)中诱建,"挖礦"也可以指硬件的使用,比如使用GPU進行模型的訓(xùn)練俺猿,這個過程因為其高能耗和高計算需求,被比喻為"挖礦"诵冒。從大量的無標(biāo)注數(shù)據(jù)中挖掘出有用的信息或知識,例如構(gòu)建知識圖譜造烁、生成對話數(shù)據(jù)等。 |
自動駕駛
概念 | 釋義 |
---|---|
NOA (Navigate on Autopilo) | 智能導(dǎo)航輔助駕駛惭蟋,但不同車企的叫法不同,例如小鵬那邊叫NGP告组、華為那邊叫NCA、蔚來那邊叫NOP |
AEB (Autonomous Emergency Braking) | 自動緊急剎車系統(tǒng)木缝,一種汽車主動安全技術(shù),主要由3大模塊構(gòu)成我碟,包括控制模塊(ECU),測距模塊矫俺,和制動模塊。其中測距模塊的核心包括微波雷達(dá)友雳、人臉識別技術(shù)和視頻系統(tǒng)等,它可以提供前方道路安全铅匹、準(zhǔn)確、實時的圖像和路況信息 |
NLP
概念 | 釋義 |
---|---|
自然語言處理 (NLP) | 計算機科學(xué)領(lǐng)域包斑,研究如何讓計算機理解、解釋和生成人類語言神帅。 |
語義理解 (Semantic Understanding) | 模型理解文本意義,而不僅僅是字面意思枕稀,涉及上下文询刹、隱喻等。 |
知識圖譜(Knowledge Graph) | 一個結(jié)構(gòu)化的知識表示形式沐兰,用于存儲和展示實體(如人蔽挠、地點瓜浸、物品)及其相互關(guān)系。它通過節(jié)點(表示實體)和邊(表示實體間的關(guān)系)構(gòu)建出一個網(wǎng)絡(luò)插佛,使得信息可以以一種直觀且易于檢索的方式組織和存儲。 |
文本生成 (Text Generation) | 根據(jù)給定的提示或上下文生成新的雇寇、連貫的文本內(nèi)容。 |
機器翻譯 (Machine Translation) | 將文本從一種語言自動翻譯成另一種語言的技術(shù)锨侯。 |
情感分析 (Sentiment Analysis) | 判斷文本中表達(dá)的情感傾向冬殃,如正面、負(fù)面或中性审葬。 |
問答系統(tǒng) (Q&A) | 自動回答用戶提出的問題,需要理解問題并從數(shù)據(jù)中檢索或生成答案成箫。 |
對話系統(tǒng) (Dialogue Systems) | 能夠與用戶進行自然語言對話的AI系統(tǒng)旨枯,應(yīng)用于聊天機器人等。 |
聊天機器人(Chatbot) | 是一種人工智能應(yīng)用程序攀隔,能夠與用戶進行自然語言交流,如ChatGPT等昆汹。 |
text2sql | Text2SQL是一種自然語言處理技術(shù),它能將普通自然語言文本自動轉(zhuǎn)換為結(jié)構(gòu)化的SQL查詢語句满粗,使得用戶無須了解SQL語法即可對數(shù)據(jù)庫進行查詢。這項技術(shù)廣泛應(yīng)用于智能客服映皆、數(shù)據(jù)分析和BI工具中,通過理解用戶提問捅彻,自動生成對應(yīng)數(shù)據(jù)庫查詢指令,獲取準(zhǔn)確信息步淹。 |
大模型智能體
概念 | 釋義 |
---|---|
智能體(Agent) | 在環(huán)境中感知诚撵、思考并采取行動的自主AI系統(tǒng)寿烟。 |
多智能體(Multi-agent) | 多個智能體協(xié)作聯(lián)合解決復(fù)雜問題的系統(tǒng)。 |
RAG(Retrieval-Augmented Generation) | 檢索增加生成韧衣,融合檢索與生成的混合策略购桑,增強AI內(nèi)容創(chuàng)作的豐富度與準(zhǔn)確性。 |
self-RAG(self-reflection-Retrieval-Augmented Generation) | 自我反思增強RAG勃蜘。 |
graph-RAG(graph-Retrieval-Augmented Generation) | 一種新方法,它使用由LLM創(chuàng)建的知識圖譜進行全局摘要炉擅,與之前專注于結(jié)構(gòu)化圖檢索的方法不同,這種方法利用圖的模塊性將其劃分為密切相關(guān)的組或社區(qū)谍失。當(dāng)被問及問題時,這些摘要生成部分響應(yīng)快鱼,這些響應(yīng)被組合成最終答案纲岭。 |
Function Calling | AI模型的外部能力拓展,直接調(diào)用函數(shù)或API止潮,實現(xiàn)更廣泛的實用功能和復(fù)雜操作。 |
Reflection | 智能體的自我審視與調(diào)節(jié)能力喇闸,使其能監(jiān)控自身狀態(tài),適時調(diào)整策略燃乍,優(yōu)化決策過程。 |
框架&工具
概念 | 釋義 |
---|---|
TensorFlow | 谷歌開源的機器學(xué)習(xí)框架橘沥,為AI開發(fā)者提供強大的工具箱夯秃,助力模型構(gòu)建與算法優(yōu)化痢艺。 |
PyTorch | 來自Meta(原Facebook)的機器學(xué)習(xí)神器介陶,為深度學(xué)習(xí)研究與應(yīng)用提供靈活而強大的工具。 |
langchain | 是一個用于開發(fā)基于大模型應(yīng)用程序的框架哺呜。 |
Ollama | 一個可以運行Llama大模型的開源推理框架。 |
LlamaIndex | LlamaIndex是一個連接大模型與外部數(shù)據(jù)的工具某残,它通過構(gòu)建索引和提供查詢接口,使得大模型能夠?qū)W習(xí)和利用私有或者特定領(lǐng)域的數(shù)據(jù)玻墅。 |
向量數(shù)據(jù)庫 | 專為高維向量數(shù)據(jù)設(shè)計的存儲系統(tǒng),常用于搜索环础、推薦系統(tǒng)及AI中的相似性匹配,提高數(shù)據(jù)檢索效率剩拢。 |
Neo4j | 一個高性能的NOSQL圖形數(shù)據(jù)庫,它將結(jié)構(gòu)化數(shù)據(jù)存儲在網(wǎng)絡(luò)上而不是表中贯钩。它是一個嵌入式的、基于磁盤的魏保、具備完全的事務(wù)特性的Java持久化引擎摸屠,但是它將結(jié)構(gòu)化數(shù)據(jù)存儲在網(wǎng)絡(luò)(從數(shù)學(xué)角度叫做圖)上而不是表中。Neo4j也可以被看作是一個高性能的圖引擎檩咱,該引擎具有成熟數(shù)據(jù)庫的所有特性。 |
huggingface | 一家專注于自然語言處理(NLP)的人工智能公司刻蚯,以其開源的Transformers庫聞名桑嘶。該庫提供了廣泛的預(yù)訓(xùn)練模型和工具,支持多種任務(wù)逃顶,如文本分類充甚、文本生成霸褒、翻譯、問答等 |
大模型產(chǎn)品
概念 | 釋義 |
---|---|
ChatGPT | 是OpenAI研發(fā)的一款聊天機器人程序技矮,ChatGPT是人工智能技術(shù)驅(qū)動的自然語言處理工具,它能夠基于在預(yù)訓(xùn)練階段所見的模式和統(tǒng)計規(guī)律衰倦,來生成回答旁理,還能根據(jù)聊天的上下文進行互動,真正像人類一樣來聊天交流韧拒。 |
Gemma | Gemma是谷歌研發(fā)的AI大模型。 |
Claude | 美國人工智能初創(chuàng)公司Anthropic發(fā)布的大型語言模型家族叛溢。 |
Llama | Meta(原Facebook)公司開發(fā)的開源大語言模型。 |
Qwen | 阿里巴巴公司開發(fā)的開源大語言模型厢蒜。 |
配套硬件&軟件
概念 | 釋義 |
---|---|
GPU | 圖形處理器,現(xiàn)代計算的加速器斑鸦,尤其在深度學(xué)習(xí)和高并行計算任務(wù)中發(fā)揮著至關(guān)重要的作用。 |
NPU | 嵌入式神經(jīng)網(wǎng)絡(luò)處理器巷屿,一般適用于特定領(lǐng)域的加速計算墩虹,如人工智能和計算機視覺等。 |
CUDA | NVIDIA開發(fā)的并行計算平臺和編程模型诫钓,允許開發(fā)者利用GPU的強大性能,加速科學(xué)計算问拘、圖形處理等應(yīng)用。 |
技術(shù)討論 & 疑問建議 & 個人博客
版權(quán)聲明: 本博客所有文章除特別聲明外骤坐,均采用 CC BY-NC-SA 3.0 許可協(xié)議,轉(zhuǎn)載請注明出處