人工智能概念及術(shù)語

最近工作與大模型息息相關(guān)捺球,一入AI深似海街图,大模型產(chǎn)業(yè)日新月異。毫不夸張的說我上個月才做的技術(shù)調(diào)研懒构,這個月就已經(jīng)過時了,好幾次在隔壁部門聽見同事談?wù)摯竽P拖嚓P(guān)問題耘擂,走進聽是聽見了但仿佛在說外星語胆剧。大模型領(lǐng)域有很多專業(yè)詞匯,比如什么AGI、AIGC秩霍、多模態(tài)篙悯、Token、RAG铃绒、COT鸽照、SFT、LORA等等矮燎,對非這個行業(yè)從業(yè)者來說,初次見到通常不明所以诞外,特此在這篇文章里總結(jié)工作上用到的及調(diào)研過的一些AI領(lǐng)域?qū)I(yè)術(shù)語灾票,涵蓋基礎(chǔ)概念、機器學(xué)習(xí)&深度學(xué)習(xí)刊苍、NLP、多模態(tài)正什、智能體等多個類別

基礎(chǔ)概念

概念 釋義
LLM(大語言模型, Large Language Model) 基于海量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,如GPT系列脾拆、BERT等,能夠理解和生成自然語言文本名船,能夠進行復(fù)雜對話、文本創(chuàng)作等任務(wù)渠驼。
AGI(通用人工智能, Artificial General Intelligence) 這是AI研究的理想目標(biāo)鉴腻,追求創(chuàng)造能像人類一樣學(xué)習(xí)新技能、解決廣泛問題的智能體爽哎,目前仍處于理論探索和初步實踐階段。
AIGC (人工智能生成內(nèi)容) 利用AI技術(shù)生成的各種內(nèi)容课锌,從文本祈秕、圖像到視頻雏胃,利用算法創(chuàng)造新穎、個性化的內(nèi)容瞭亮,如AI藝術(shù)畫作或定制文章。
Prompt(提示詞) 在AI大模型中用于引導(dǎo)模型生成特定類型輸出的上下文信息或指令统翩,例如,告訴模型“寫一篇科幻故事”唆缴。
提示工程(Prompt Engineering) 設(shè)計和優(yōu)化輸入提示以獲得所需模型輸出的過程,涉及精心設(shè)計輸入提示艳丛,以優(yōu)化模型輸出的準(zhǔn)確性、創(chuàng)意或特定風(fēng)格氮双,是提高AI大模型響應(yīng)質(zhì)量的關(guān)鍵策略。
多模態(tài)(Multimodal) 文本戴差、圖像铛嘱、音頻等都是一種模態(tài),多模態(tài)指能夠處理文本墨吓、圖像、音頻等多種類型數(shù)據(jù)的模型帖烘,實現(xiàn)對多模態(tài)信息的綜合理解和分析。
推理(Inference) 大模型的推理(Inference)是指使用已經(jīng)訓(xùn)練好的模型進行實際應(yīng)用秘症,生成預(yù)測或輸出結(jié)果的過程。例如大模型根據(jù)問題生成答案役耕,根據(jù)文本描述生成圖片等。
涌現(xiàn)(Emergence) 指的是系統(tǒng)中新的性質(zhì)瞬痘、模式或行為在更簡單的組件相互作用下自發(fā)形成的現(xiàn)象氏义。
對齊 AI價值對齊是指讓大模型的能力和行為跟人類的價值、真實意圖和倫理原則相一致邻邮,確保人類與人工智能協(xié)作過程中的安全與信任。
Token 通常指的是文本或數(shù)據(jù)中的一個基本單元或符號筒严,在自然語言處理中,單詞是最常見的 token鸭蛙。例如,“你好娶视,世界!”會被分解為“你”寝凌、“好”、“较木,”、“世界”和“伐债!”這樣的token,便于機器理解和處理峰锁。
智能體(Agent) 在環(huán)境中感知喇喉、思考并采取行動的自主AI系統(tǒng)。
世界模型 指AI系統(tǒng)內(nèi)部構(gòu)建的對現(xiàn)實世界的抽象認(rèn)知模型拣技,用于預(yù)測、規(guī)劃和決策膏斤,是實現(xiàn)高級人工智能的關(guān)鍵組成部分。
大模型幻覺 幻覺是指大型語言模型生成的內(nèi)容看似合理但實際上不準(zhǔn)確或虛構(gòu)的信息。原因是盡管模型可以生成符合語言結(jié)構(gòu)的文本,但它們并不具備真正的理解能力屈芜,只是基于概率生成下一個詞語喻粹。
具身智能 擁有物理實體的智能體(如機器人)草巡,通過與環(huán)境的互動學(xué)習(xí)和適應(yīng),實現(xiàn)更接近生物體的智能表現(xiàn)山憨。
端到端(End-to-End,簡稱E2E) 指的是一個系統(tǒng)或模型能夠直接提供從輸入數(shù)據(jù)到輸出數(shù)據(jù)的解決方案郁竟,而不是通過傳統(tǒng)的分模塊處理方式

機器學(xué)習(xí)

概念 釋義
機器學(xué)習(xí) (Machine Learning, ML) AI的子領(lǐng)域,讓計算機能夠從經(jīng)驗中學(xué)習(xí)并提升任務(wù)執(zhí)行能力棚亩。就像一個孩子通過不斷嘗試和反饋學(xué)會騎自行車,ML模型通過分析大量數(shù)據(jù)和調(diào)整內(nèi)部規(guī)則拒担,逐步提高其預(yù)測或決策的準(zhǔn)確性。
深度學(xué)習(xí)(Deep Learning) 這是機器學(xué)習(xí)的一個分支从撼,通過構(gòu)造多層神經(jīng)網(wǎng)絡(luò)來模擬人類大腦的深層處理機制,能夠自動提取數(shù)據(jù)中的復(fù)雜特征低零,比如在人臉識別中區(qū)分眼睛拯杠、鼻子等細(xì)微特征,進而實現(xiàn)高度精確的分類或預(yù)測潭陪。
Transformer 這是一種革命性的神經(jīng)網(wǎng)絡(luò)架構(gòu),通過自注意力機制有效分析序列數(shù)據(jù)依溯,解決了長距離依賴問題,是大模型的核心架構(gòu)
神經(jīng)網(wǎng)絡(luò)(Neural Network) 神經(jīng)網(wǎng)絡(luò)是人工智能領(lǐng)域的核心概念之一黎炉,模仿人腦的結(jié)構(gòu)和功能,用來解決復(fù)雜的計算和模式識別問題慷嗜。它們由許多稱為“神經(jīng)元”或“節(jié)點”的簡單計算單元組成丹壕,這些單元互相連接形成網(wǎng)絡(luò)薇溃。每個神經(jīng)元對輸入信息做簡單運算后,將信號傳給下一個神經(jīng)元沐序,層層傳遞,最終完成復(fù)雜的計算任務(wù),如圖像識別或語音理解逛尚。
CNN(卷積神經(jīng)網(wǎng)絡(luò), Convolutional Neural Network) 特別設(shè)計用于圖像識別的“視覺偵探”。它通過一系列“卷積層”工作绰寞,這些層能夠自動檢測圖像中的邊緣、紋理等基礎(chǔ)特征滤钱,并逐漸構(gòu)建出更復(fù)雜的圖像理解,比如識別一只貓是否在圖片中件缸,即使它的姿態(tài)各異。
RNN(循環(huán)神經(jīng)網(wǎng)絡(luò), Recurrent Neural Network) 時間序列數(shù)據(jù)的“記憶大師”他炊。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)不同,RNN具有循環(huán)結(jié)構(gòu)痊末,使其能夠處理如語言、股票價格等序列數(shù)據(jù)凿叠,在每個時間點考慮之前的信息,這使得它在預(yù)測未來事件或理解文本上下文時非常有效盒件。
GPT(Generative Pre-trained Transformer) 作為另一款基于Transformer的模型,GPT專注于生成連貫履恩、有創(chuàng)意的文本,從文章寫作到故事構(gòu)思切心,它都能根據(jù)初始提示產(chǎn)出令人驚嘆的續(xù)篇片吊,展示了強大的語言生成能力协屡。
BERT(Bidirectional Encoder Representations from Transformers) 自然語言處理領(lǐng)域的“雙向翻譯官”。BERT利用Transformer架構(gòu)學(xué)習(xí)文本的雙向上下文信息肤晓,意味著它能同時理解一個詞在句子前后的含義,從而在問答补憾、情感分析等任務(wù)中表現(xiàn)出色。
知識蒸餾(Knowledge Distillation) 通過讓小模型學(xué)習(xí)大模型的決策過程和輸出盈匾,就像一位經(jīng)驗豐富的導(dǎo)師將其知識濃縮傳授給徒弟,從而在減少計算資源的同時保持高性能削饵。
預(yù)訓(xùn)練 (Pre-training) 在特定任務(wù)的數(shù)據(jù)上先訓(xùn)練模型,獲取一般語言知識启昧,之后再針對具體任務(wù)微調(diào)。
微調(diào) (Fine-tuning) 在預(yù)訓(xùn)練模型的基礎(chǔ)上密末,針對特定任務(wù)進行額外訓(xùn)練的過程。
參數(shù)(Parameter) 是指模型中的可訓(xùn)練變量苏遥,這些變量決定了模型的行為和性能。具體來說田炭,參數(shù)通常是神經(jīng)網(wǎng)絡(luò)中的權(quán)重和偏置漓柑,它們在訓(xùn)練過程中通過梯度下降等優(yōu)化算法進行更新。參數(shù)量是衡量模型規(guī)模的一個重要指標(biāo)辆布。如Llama 7B,表示擁有70億參數(shù)量锋玲。
權(quán)重(Weights) 連接神經(jīng)元的權(quán)重是最常見的參數(shù)。每個權(quán)重決定了一個輸入信號對輸出信號的影響程度。
生成模型(Generative Model) 這類模型能夠基于已知數(shù)據(jù)模式生成新的數(shù)據(jù)實例伞插,包括文本、圖像等舀瓢,展現(xiàn)創(chuàng)造性輸出能力,如GPT-3京髓。
擴散模型(Diffusion Model) 這是一種創(chuàng)意十足的生成模型,想象一下將一滴墨水在水中慢慢擴散開來堰怨,最終形成圖案的過程蛇摸,但這里的“墨水”變成了數(shù)據(jù),如圖像皇型、聲音或文本砸烦。通過模擬物理世界中的擴散現(xiàn)象,它從隨機噪聲開始唬格,一步步“澄清”出清晰的內(nèi)容,尤其擅長創(chuàng)造細(xì)膩的視覺藝術(shù)和復(fù)雜的數(shù)據(jù)結(jié)構(gòu)购岗。
模型量化(Model Quantization) 減少模型存儲和計算需求的技術(shù),通過降低參數(shù)精度门粪,如將32位浮點數(shù)轉(zhuǎn)為8位整數(shù),實現(xiàn)模型瘦身乾吻。
Token 通常指的是文本或數(shù)據(jù)中的一個基本單元或符號,在自然語言處理中绎签,單詞是最常見的 token。例如诡必,“你好,世界爸舒!”會被分解為“你”、“好”碳抄、“,”剖效、“世界”和“!”這樣的token璧尸,便于機器理解和處理。
Tokenizer 用于將連續(xù)的文本序列(如句子或段落)分割成更小單位的工具或算法爷光,例如單詞、短語或符號蛀序,這些單元通常稱為 "token"。
Embedding(嵌入) 將文本轉(zhuǎn)化數(shù)值向量的技術(shù)遣鼓,便于機器處理,例如骑祟,將“貓”表示為一個100 維的向量 [0.21, -0.34, 0.65, ...],這個向量捕捉了“貓”的語義信息次企。
上下文窗口 (Context Window) 語言模型處理文本時考慮的前后詞元范圍潜圃,用于捕捉文本的語境信息。較大的窗口提供更豐富語義谭期,幫助生成連貫、準(zhǔn)確的文本崇堵,避免歧義,改善上下文依賴處理鸳劳。例如,GPT-4 Turbo的128k Token上下文窗口讓它能生成高度相關(guān)和細(xì)膩的回復(fù)涵紊。
MoE(Mixture of Experts) 一種在深度學(xué)習(xí)中使用的模型架構(gòu),旨在提高模型的性能和效率摸柄。MoE模型通過將不同的子模型(稱為“專家”)組合在一起,每個專家專門處理特定的輸入特征或任務(wù)驱负,從而實現(xiàn)更好的泛化能力和計算效率。
數(shù)據(jù)標(biāo)注 是指為機器學(xué)習(xí)和人工智能模型準(zhǔn)備訓(xùn)練數(shù)據(jù)時的過程跃脊,即為數(shù)據(jù)集中的樣本添加標(biāo)簽、標(biāo)注或注釋器瘪,以便模型能夠理解和學(xué)習(xí)數(shù)據(jù)的含義和特征。
數(shù)據(jù)清洗(Data Cleaning) 是對數(shù)據(jù)集進行詳細(xì)檢查和修正的過程橡疼,旨在提升數(shù)據(jù)的質(zhì)量和可靠性。這一過程專注于識別并糾正數(shù)據(jù)中的錯誤欣除、不完整信息继阻、不一致性及冗余現(xiàn)象
練丹 在機器學(xué)習(xí)領(lǐng)域废酷,指訓(xùn)練大規(guī)模的神經(jīng)網(wǎng)絡(luò)模型,特別是預(yù)訓(xùn)練語言模型澈蟆,如GPT、BERT等趴俘。這個過程需要大量的數(shù)據(jù)、算力和技巧太惠,就像煉制靈丹一樣。煉丹重點描述模型調(diào)優(yōu)的過程凿渊。這個過程往往需要大量的嘗試和經(jīng)驗,包括選擇合適的模型結(jié)構(gòu)埃脏、優(yōu)化算法、損失函數(shù)彩掐、學(xué)習(xí)率等,就像煉丹一樣需要精細(xì)的操作和耐心的等待堵幽。
蒸餾 模型蒸餾是一種模型壓縮技術(shù),它的目標(biāo)是將一個大型谐檀、復(fù)雜的模型(被稱為教師模型)的知識轉(zhuǎn)移到一個小型、簡單的模型(被稱為學(xué)生模型)中麦撵。
挖礦 在機器學(xué)習(xí)中,"挖礦"通常指的是數(shù)據(jù)挖掘免胃,即從大量的惫撰、未經(jīng)過處理的數(shù)據(jù)中提取有用信息和知識的過程。這個過程包括數(shù)據(jù)清洗厨钻、數(shù)據(jù)轉(zhuǎn)換、數(shù)據(jù)分析夯膀、模式識別等步驟。在深度學(xué)習(xí)中诱建,"挖礦"也可以指硬件的使用,比如使用GPU進行模型的訓(xùn)練俺猿,這個過程因為其高能耗和高計算需求,被比喻為"挖礦"诵冒。從大量的無標(biāo)注數(shù)據(jù)中挖掘出有用的信息或知識,例如構(gòu)建知識圖譜造烁、生成對話數(shù)據(jù)等。

自動駕駛

概念 釋義
NOA (Navigate on Autopilo) 智能導(dǎo)航輔助駕駛惭蟋,但不同車企的叫法不同,例如小鵬那邊叫NGP告组、華為那邊叫NCA、蔚來那邊叫NOP
AEB (Autonomous Emergency Braking) 自動緊急剎車系統(tǒng)木缝,一種汽車主動安全技術(shù),主要由3大模塊構(gòu)成我碟,包括控制模塊(ECU),測距模塊矫俺,和制動模塊。其中測距模塊的核心包括微波雷達(dá)友雳、人臉識別技術(shù)和視頻系統(tǒng)等,它可以提供前方道路安全铅匹、準(zhǔn)確、實時的圖像和路況信息

NLP

概念 釋義
自然語言處理 (NLP) 計算機科學(xué)領(lǐng)域包斑,研究如何讓計算機理解、解釋和生成人類語言神帅。
語義理解 (Semantic Understanding) 模型理解文本意義,而不僅僅是字面意思枕稀,涉及上下文询刹、隱喻等。
知識圖譜(Knowledge Graph) 一個結(jié)構(gòu)化的知識表示形式沐兰,用于存儲和展示實體(如人蔽挠、地點瓜浸、物品)及其相互關(guān)系。它通過節(jié)點(表示實體)和邊(表示實體間的關(guān)系)構(gòu)建出一個網(wǎng)絡(luò)插佛,使得信息可以以一種直觀且易于檢索的方式組織和存儲。
文本生成 (Text Generation) 根據(jù)給定的提示或上下文生成新的雇寇、連貫的文本內(nèi)容。
機器翻譯 (Machine Translation) 將文本從一種語言自動翻譯成另一種語言的技術(shù)锨侯。
情感分析 (Sentiment Analysis) 判斷文本中表達(dá)的情感傾向冬殃,如正面、負(fù)面或中性审葬。
問答系統(tǒng) (Q&A) 自動回答用戶提出的問題,需要理解問題并從數(shù)據(jù)中檢索或生成答案成箫。
對話系統(tǒng) (Dialogue Systems) 能夠與用戶進行自然語言對話的AI系統(tǒng)旨枯,應(yīng)用于聊天機器人等。
聊天機器人(Chatbot) 是一種人工智能應(yīng)用程序攀隔,能夠與用戶進行自然語言交流,如ChatGPT等昆汹。
text2sql Text2SQL是一種自然語言處理技術(shù),它能將普通自然語言文本自動轉(zhuǎn)換為結(jié)構(gòu)化的SQL查詢語句满粗,使得用戶無須了解SQL語法即可對數(shù)據(jù)庫進行查詢。這項技術(shù)廣泛應(yīng)用于智能客服映皆、數(shù)據(jù)分析和BI工具中,通過理解用戶提問捅彻,自動生成對應(yīng)數(shù)據(jù)庫查詢指令,獲取準(zhǔn)確信息步淹。

大模型智能體

概念 釋義
智能體(Agent) 在環(huán)境中感知诚撵、思考并采取行動的自主AI系統(tǒng)寿烟。
多智能體(Multi-agent) 多個智能體協(xié)作聯(lián)合解決復(fù)雜問題的系統(tǒng)。
RAG(Retrieval-Augmented Generation) 檢索增加生成韧衣,融合檢索與生成的混合策略购桑,增強AI內(nèi)容創(chuàng)作的豐富度與準(zhǔn)確性。
self-RAG(self-reflection-Retrieval-Augmented Generation) 自我反思增強RAG勃蜘。
graph-RAG(graph-Retrieval-Augmented Generation) 一種新方法,它使用由LLM創(chuàng)建的知識圖譜進行全局摘要炉擅,與之前專注于結(jié)構(gòu)化圖檢索的方法不同,這種方法利用圖的模塊性將其劃分為密切相關(guān)的組或社區(qū)谍失。當(dāng)被問及問題時,這些摘要生成部分響應(yīng)快鱼,這些響應(yīng)被組合成最終答案纲岭。
Function Calling AI模型的外部能力拓展,直接調(diào)用函數(shù)或API止潮,實現(xiàn)更廣泛的實用功能和復(fù)雜操作。
Reflection 智能體的自我審視與調(diào)節(jié)能力喇闸,使其能監(jiān)控自身狀態(tài),適時調(diào)整策略燃乍,優(yōu)化決策過程。

框架&工具

概念 釋義
TensorFlow 谷歌開源的機器學(xué)習(xí)框架橘沥,為AI開發(fā)者提供強大的工具箱夯秃,助力模型構(gòu)建與算法優(yōu)化痢艺。
PyTorch 來自Meta(原Facebook)的機器學(xué)習(xí)神器介陶,為深度學(xué)習(xí)研究與應(yīng)用提供靈活而強大的工具。
langchain 是一個用于開發(fā)基于大模型應(yīng)用程序的框架哺呜。
Ollama 一個可以運行Llama大模型的開源推理框架。
LlamaIndex LlamaIndex是一個連接大模型與外部數(shù)據(jù)的工具某残,它通過構(gòu)建索引和提供查詢接口,使得大模型能夠?qū)W習(xí)和利用私有或者特定領(lǐng)域的數(shù)據(jù)玻墅。
向量數(shù)據(jù)庫 專為高維向量數(shù)據(jù)設(shè)計的存儲系統(tǒng),常用于搜索环础、推薦系統(tǒng)及AI中的相似性匹配,提高數(shù)據(jù)檢索效率剩拢。
Neo4j 一個高性能的NOSQL圖形數(shù)據(jù)庫,它將結(jié)構(gòu)化數(shù)據(jù)存儲在網(wǎng)絡(luò)上而不是表中贯钩。它是一個嵌入式的、基于磁盤的魏保、具備完全的事務(wù)特性的Java持久化引擎摸屠,但是它將結(jié)構(gòu)化數(shù)據(jù)存儲在網(wǎng)絡(luò)(從數(shù)學(xué)角度叫做圖)上而不是表中。Neo4j也可以被看作是一個高性能的圖引擎檩咱,該引擎具有成熟數(shù)據(jù)庫的所有特性。
huggingface 一家專注于自然語言處理(NLP)的人工智能公司刻蚯,以其開源的Transformers庫聞名桑嘶。該庫提供了廣泛的預(yù)訓(xùn)練模型和工具,支持多種任務(wù)逃顶,如文本分類充甚、文本生成霸褒、翻譯、問答等

大模型產(chǎn)品

概念 釋義
ChatGPT 是OpenAI研發(fā)的一款聊天機器人程序技矮,ChatGPT是人工智能技術(shù)驅(qū)動的自然語言處理工具,它能夠基于在預(yù)訓(xùn)練階段所見的模式和統(tǒng)計規(guī)律衰倦,來生成回答旁理,還能根據(jù)聊天的上下文進行互動,真正像人類一樣來聊天交流韧拒。
Gemma Gemma是谷歌研發(fā)的AI大模型。
Claude 美國人工智能初創(chuàng)公司Anthropic發(fā)布的大型語言模型家族叛溢。
Llama Meta(原Facebook)公司開發(fā)的開源大語言模型。
Qwen 阿里巴巴公司開發(fā)的開源大語言模型厢蒜。

配套硬件&軟件

概念 釋義
GPU 圖形處理器,現(xiàn)代計算的加速器斑鸦,尤其在深度學(xué)習(xí)和高并行計算任務(wù)中發(fā)揮著至關(guān)重要的作用。
NPU 嵌入式神經(jīng)網(wǎng)絡(luò)處理器巷屿,一般適用于特定領(lǐng)域的加速計算墩虹,如人工智能和計算機視覺等。
CUDA NVIDIA開發(fā)的并行計算平臺和編程模型诫钓,允許開發(fā)者利用GPU的強大性能,加速科學(xué)計算问拘、圖形處理等應(yīng)用。

技術(shù)討論 & 疑問建議 & 個人博客

版權(quán)聲明: 本博客所有文章除特別聲明外骤坐,均采用 CC BY-NC-SA 3.0 許可協(xié)議,轉(zhuǎn)載請注明出處

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市驰唬,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌叫编,老刑警劉巖,帶你破解...
    沈念sama閱讀 206,968評論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件卷谈,死亡現(xiàn)場離奇詭異霞篡,居然都是意外死亡,警方通過查閱死者的電腦和手機朗兵,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,601評論 2 382
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來寸爆,“玉大人盐欺,你說我怎么就攤上這事∪呙溃” “怎么了?”我有些...
    開封第一講書人閱讀 153,220評論 0 344
  • 文/不壞的土叔 我叫張陵务嫡,是天一觀的道長漆改。 經(jīng)常有香客問我,道長挫剑,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 55,416評論 1 279
  • 正文 為了忘掉前任愉棱,我火速辦了婚禮,結(jié)果婚禮上奔滑,老公的妹妹穿的比我還像新娘。我一直安慰自己王浴,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 64,425評論 5 374
  • 文/花漫 我一把揭開白布氓辣。 她就那樣靜靜地躺著袱蚓,像睡著了一般。 火紅的嫁衣襯著肌膚如雪喇潘。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,144評論 1 285
  • 那天硕勿,我揣著相機與錄音枫甲,去河邊找鬼。 笑死想幻,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的脏毯。 我是一名探鬼主播,決...
    沈念sama閱讀 38,432評論 3 401
  • 文/蒼蘭香墨 我猛地睜開眼渣淤,長吁一口氣:“原來是場噩夢啊……” “哼吉嫩!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起自娩,我...
    開封第一講書人閱讀 37,088評論 0 261
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎脐彩,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體惠奸,經(jīng)...
    沈念sama閱讀 43,586評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,028評論 2 325
  • 正文 我和宋清朗相戀三年梗掰,在試婚紗的時候發(fā)現(xiàn)自己被綠了共虑。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片呀页。...
    茶點故事閱讀 38,137評論 1 334
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖蓬蝶,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情丸氛,我是刑警寧澤,帶...
    沈念sama閱讀 33,783評論 4 324
  • 正文 年R本政府宣布定续,位于F島的核電站,受9級特大地震影響私股,放射性物質(zhì)發(fā)生泄漏恩掷。R本人自食惡果不足惜倡鲸,卻給世界環(huán)境...
    茶點故事閱讀 39,343評論 3 307
  • 文/蒙蒙 一峭状、第九天 我趴在偏房一處隱蔽的房頂上張望逼争。 院中可真熱鬧,春花似錦羔巢、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,333評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽幽钢。三九已至,卻和暖如春蕾羊,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背龟再。 一陣腳步聲響...
    開封第一講書人閱讀 31,559評論 1 262
  • 我被黑心中介騙來泰國打工尼变, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人嫌术。 一個月前我還...
    沈念sama閱讀 45,595評論 2 355
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親磷籍。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 42,901評論 2 345

推薦閱讀更多精彩內(nèi)容