大模型的基礎(chǔ)概念知識

一? 大模型的組成部分

? 大模型通常指規(guī)模巨大、參數(shù)數(shù)量眾多的機(jī)器學(xué)習(xí)模型纹份,尤其在深度學(xué)習(xí)領(lǐng)域凸舵,這種模型一般由以下幾個(gè)關(guān)鍵部分組成:

1. 神經(jīng)網(wǎng)絡(luò)架構(gòu):

? - 大模型的基礎(chǔ)是復(fù)雜且多層次的神經(jīng)網(wǎng)絡(luò)架構(gòu)列敲,如深度前饋神經(jīng)網(wǎng)絡(luò)(包括但不限于卷積神經(jīng)網(wǎng)絡(luò)CNN、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN余耽、Transformer等)。

2. 海量參數(shù):

? - 參數(shù)規(guī)模是衡量模型“大小”的關(guān)鍵指標(biāo)苹熏,大模型往往擁有數(shù)百萬甚至數(shù)十億級別的參數(shù)碟贾。這些參數(shù)包括各個(gè)神經(jīng)元之間的權(quán)重以及可能存在的偏置項(xiàng)。

3. 層級結(jié)構(gòu):

? - 深度模型的層級結(jié)構(gòu)允許它學(xué)習(xí)從底層特征到高層抽象表示的復(fù)雜映射關(guān)系轨域,每一層都在對輸入數(shù)據(jù)進(jìn)行逐步的特征抽取和變換袱耽。

4. 自注意力機(jī)制(在某些模型中):

? - 如Transformer架構(gòu)的大模型(如GPT和BERT系列)采用自注意力機(jī)制,允許模型更好地理解和處理序列數(shù)據(jù)中的長期依賴關(guān)系干发。

5. 優(yōu)化器與訓(xùn)練算法:

? - 使用高效的優(yōu)化器(如Adam朱巨、Adagrad等)和大規(guī)模分布式訓(xùn)練算法,使得模型能夠在大型GPU集群或TPU陣列上快速收斂铐然。

6. 大規(guī)模數(shù)據(jù)集:

? - 訓(xùn)練大模型需要非常龐大的標(biāo)注或未標(biāo)注數(shù)據(jù)集蔬崩,這對于模型能夠捕捉豐富的語言規(guī)律恶座、圖像特征或者其他類型的數(shù)據(jù)模式至關(guān)重要。

7. 正則化和模型并行/數(shù)據(jù)并行技術(shù):

? - 為了避免過擬合沥阳,大模型常采用正則化技術(shù)跨琳,并利用模型并行和數(shù)據(jù)并行等手段在多GPU或多設(shè)備間分配計(jì)算負(fù)載,以提高訓(xùn)練效率和模型容量桐罕。

8. 預(yù)訓(xùn)練與微調(diào):

? - 大多數(shù)現(xiàn)代大模型采用預(yù)訓(xùn)練和微調(diào)兩個(gè)階段脉让,首先在大規(guī)模無標(biāo)簽數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練以獲取通用的語言或數(shù)據(jù)表示能力,然后針對具體任務(wù)進(jìn)行微調(diào)以達(dá)到最佳性能功炮。

二 主流的神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

主流的神經(jīng)網(wǎng)絡(luò)架構(gòu)有很多種溅潜,以下是幾種在不同應(yīng)用場景中較為突出和廣泛使用的神經(jīng)網(wǎng)絡(luò)架構(gòu):

1. 前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks, FNN)

? - 多層感知器(Multi-Layer Perceptron, MLP)是最基礎(chǔ)的前饋神經(jīng)網(wǎng)絡(luò)形式,數(shù)據(jù)從輸入層經(jīng)過一系列隱藏層直至輸出層薪伏,不存在循環(huán)或反饋連接滚澜。

? - 深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNN)是指具有多個(gè)隱藏層的前饋神經(jīng)網(wǎng)絡(luò),用于解決復(fù)雜的非線性問題嫁怀。

2. 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)

? - 主要應(yīng)用于計(jì)算機(jī)視覺任務(wù)设捐,如圖像分類、物體檢測和語義分割等塘淑,通過卷積層提取圖像特征萝招,并結(jié)合池化層減少計(jì)算量和保持平移不變性。

3. 循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)

? - 適用于處理序列數(shù)據(jù)存捺,如文本槐沼、語音和時(shí)間序列分析。包括長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)和門控循環(huán)單元(Gated Recurrent Unit, GRU)等變種捌治,它們能夠處理序列中的長期依賴關(guān)系岗钩。

4. Transformer

? - 提出于2017年,Transformer改變了處理序列數(shù)據(jù)的方式具滴,利用自注意力機(jī)制解決了RNN在并行化處理時(shí)遇到的問題凹嘲,特別在自然語言處理領(lǐng)域取得了重大突破,如BERT构韵、GPT系列模型周蹭。

5. 生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks, GANs)

? - 由一個(gè)生成器和一個(gè)判別器組成,用于生成逼真的新樣本疲恢,如圖像凶朗、音頻和文本生成等。

6. 自編碼器(Autoencoders, AE)

? - 包括變分自編碼器(Variational Autoencoder, VAE)和其他變種显拳,用于數(shù)據(jù)降維棚愤、特征學(xué)習(xí)和生成式建模。

7. 圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks, GNNs)

? - 專門用來處理圖結(jié)構(gòu)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),如社交網(wǎng)絡(luò)分析宛畦、化學(xué)分子結(jié)構(gòu)分析等領(lǐng)域瘸洛。

以上僅列舉了一些主流的神經(jīng)網(wǎng)絡(luò)架構(gòu),實(shí)際上隨著技術(shù)的進(jìn)步和發(fā)展次和,會(huì)產(chǎn)生新的神經(jīng)網(wǎng)絡(luò)反肋。

三神經(jīng)網(wǎng)絡(luò)組成架構(gòu)

神經(jīng)網(wǎng)絡(luò)架構(gòu)是指神經(jīng)網(wǎng)絡(luò)的整體結(jié)構(gòu)布局,它由一系列相互連接的神經(jīng)元組成踏施,這些神經(jīng)元按照特定的方式排列并協(xié)同工作石蔗,以解決各種機(jī)器學(xué)習(xí)和人工智能任務(wù)。神經(jīng)網(wǎng)絡(luò)架構(gòu)的核心組件包括:

1.輸入層 (Input Layer):? - 輸入層是神經(jīng)網(wǎng)絡(luò)的第一層畅形,負(fù)責(zé)接收外部環(huán)境或數(shù)據(jù)源提供的原始特征數(shù)據(jù)养距。

2.隱藏層 (Hidden Layers):? - 隱藏層位于輸入層和輸出層之間,可以有一個(gè)或多個(gè)日熬。它們負(fù)責(zé)對輸入數(shù)據(jù)進(jìn)行復(fù)雜的轉(zhuǎn)換和特征提取棍厌,每個(gè)神經(jīng)元會(huì)根據(jù)其連接權(quán)重對輸入信號進(jìn)行加權(quán)求和,并經(jīng)過一個(gè)非線性激活函數(shù)得到輸出竖席。

3.輸出層 (Output Layer):? - 輸出層是神經(jīng)網(wǎng)絡(luò)的最后一層定铜,它產(chǎn)生最終的預(yù)測或決策結(jié)果。在不同的任務(wù)中怕敬,輸出層的結(jié)構(gòu)和激活函數(shù)會(huì)根據(jù)任務(wù)需求而變化,如分類任務(wù)可能使用softmax函數(shù)帘皿,回歸任務(wù)可能使用線性激活东跪。

4.神經(jīng)元 (Neurons):? - 神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本計(jì)算單元,每個(gè)神經(jīng)元接收到上一層的信號后鹰溜,通過權(quán)重進(jìn)行加權(quán)計(jì)算虽填,并加上一個(gè)偏置項(xiàng),再通過激活函數(shù)產(chǎn)生輸出信號曹动。

5.權(quán)重 (Weights):? - 權(quán)重是神經(jīng)元之間的連接強(qiáng)度斋日,表示從一個(gè)神經(jīng)元到另一個(gè)神經(jīng)元信息傳輸?shù)闹匾浴T谟?xùn)練過程中墓陈,這些權(quán)重會(huì)被更新以最小化損失函數(shù)恶守。

6.偏置 (Bias):? - 偏置項(xiàng)是一個(gè)額外的變量,它允許神經(jīng)元在沒有輸入信號的情況下也能產(chǎn)生輸出贡必。

7.激活函數(shù) (Activation Functions):? - 激活函數(shù)用于為神經(jīng)網(wǎng)絡(luò)引入非線性兔港,常見的激活函數(shù)包括sigmoid、tanh仔拟、ReLU以及后來的Leaky ReLU衫樊、ELU、Swish等。

8.連接 (Connections):? - 在神經(jīng)網(wǎng)絡(luò)中科侈,每層神經(jīng)元與其下一層的所有神經(jīng)元通常都是全連接的载佳,但在某些特殊架構(gòu)如卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中,連接結(jié)構(gòu)則更為復(fù)雜和有針對性臀栈。

根據(jù)不同任務(wù)的需求蔫慧,神經(jīng)網(wǎng)絡(luò)架構(gòu)衍生出了多種形態(tài),如前饋神經(jīng)網(wǎng)絡(luò)(Feedforward NN)挂脑、卷積神經(jīng)網(wǎng)絡(luò)(CNN)藕漱、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、長短時(shí)記憶網(wǎng)絡(luò)(LSTM)崭闲、門控循環(huán)單元(GRU)肋联、自注意力機(jī)制(Transformer)等。這些架構(gòu)適應(yīng)了圖像識別刁俭、自然語言處理橄仍、序列建模等多種應(yīng)用場景。

四 怎么訓(xùn)練一個(gè)大模型

訓(xùn)練大模型牍戚,特別是那些擁有數(shù)億乃至數(shù)十億參數(shù)的深度學(xué)習(xí)模型侮繁,通常面臨的主要挑戰(zhàn)包括硬件資源限制(如內(nèi)存、顯存)如孝、計(jì)算效率以及訓(xùn)練時(shí)間宪哩。以下是一些訓(xùn)練大模型的基本策略和技術(shù):

1. **分布式訓(xùn)練**:

? - **數(shù)據(jù)并行**:將大型數(shù)據(jù)集分割成多個(gè)子集,分別在不同的GPU或多臺(tái)機(jī)器上的多個(gè)GPU上并行處理第晰。每個(gè)工作進(jìn)程維護(hù)模型的一個(gè)副本锁孟,同步地執(zhí)行前向傳播和反向傳播,最后匯總梯度更新參數(shù)茁瘦。

? - **模型并行**:

? ? - **Pipeline 并行**(流水線并行):將模型的不同層分布在多個(gè)設(shè)備上品抽,形成一個(gè)處理流水線,這樣每一部分只需要存儲(chǔ)和處理模型的部分參數(shù)甜熔。

? ? - **張量并行**:針對大規(guī)模張量操作圆恤,將其分解并在多個(gè)GPU上并行執(zhí)行,例如腔稀,對于大的矩陣乘法操作盆昙,可以將矩陣沿某一維度切分后在多GPU上進(jìn)行并行計(jì)算。

? ? - **混合并行**:結(jié)合數(shù)據(jù)并行與模型并行焊虏,根據(jù)模型結(jié)構(gòu)特點(diǎn)靈活應(yīng)用弱左。

2. **梯度累積**:

? 在單個(gè)GPU或較小規(guī)模的硬件條件下,可以采用梯度累積(Gradient Accumulation)技術(shù)炕淮,即在多次前向傳播和反向傳播之后才更新一次參數(shù)拆火,有效地增大了批次大小,減少了顯存占用。

3. **模型優(yōu)化**:

? - 使用高效的優(yōu)化器们镜,如Adam币叹、LAMB等,這些優(yōu)化器能更好地處理大規(guī)模模型訓(xùn)練中的梯度稀疏性和噪聲模狭。

? - 學(xué)習(xí)率調(diào)度策略颈抚,如余弦退火、指數(shù)衰減等嚼鹉,以保證在整個(gè)訓(xùn)練過程中學(xué)習(xí)率的有效性贩汉。

4. **激活檢查點(diǎn)(Activation Checkpointing)**:

? 在訓(xùn)練過程中,臨時(shí)存儲(chǔ)中間層的激活值可能會(huì)占用大量內(nèi)存锚赤。激活檢查點(diǎn)技術(shù)允許在計(jì)算圖中跳過存儲(chǔ)某些中間層的激活值匹舞,從而降低內(nèi)存需求。

5. **動(dòng)態(tài)調(diào)整Batch Size**:

? 根據(jù)當(dāng)前GPU顯存狀況動(dòng)態(tài)調(diào)整批次大小线脚,確保訓(xùn)練過程不會(huì)因?yàn)閮?nèi)存不足而中斷赐稽。

6. **混合精度訓(xùn)練**:

? 使用半精度(FP16)代替全精度(FP32)進(jìn)行訓(xùn)練,可以節(jié)省顯存空間浑侥,同時(shí)借助自動(dòng)混合精度技術(shù)來保持模型性能姊舵。

7. **專家混合(Mixture of Experts, MoE)**:

? 對于非常大型的模型,可以通過設(shè)計(jì)模型結(jié)構(gòu)使其包含多個(gè)“專家”模塊寓落,每個(gè)輸入僅由部分專家處理括丁,以此減少單個(gè)設(shè)備上的計(jì)算和存儲(chǔ)負(fù)擔(dān)。

8. **超參數(shù)優(yōu)化**:

? 精心挑選模型架構(gòu)和訓(xùn)練參數(shù)伶选,如正則化項(xiàng)躏将、dropout比率等,以提高模型訓(xùn)練效率和泛化能力考蕾。

總之,訓(xùn)練大模型往往需要高級的軟件平臺(tái)支持会宪,比如TensorFlow肖卧、PyTorch等框架提供的分布式訓(xùn)練工具和庫,以及高性能計(jì)算集群環(huán)境掸鹅。此外塞帐,監(jiān)控和調(diào)試也至關(guān)重要,包括監(jiān)測訓(xùn)練進(jìn)度巍沙、損失曲線葵姥、模型收斂情況等。

五 關(guān)于tensorflow的

TensorFlow 是一個(gè)開源的端到端機(jī)器學(xué)習(xí)框架句携,最初由Google Brain團(tuán)隊(duì)開發(fā)并維護(hù)榔幸,現(xiàn)由TensorFlow開發(fā)者社區(qū)支持。它是目前最廣泛使用的深度學(xué)習(xí)框架之一,支持多種機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型的設(shè)計(jì)削咆、訓(xùn)練牍疏、評估以及部署。

基本特點(diǎn):

-數(shù)據(jù)流圖(Graph):TensorFlow的核心概念是數(shù)據(jù)流圖拨齐,這是一種描述數(shù)學(xué)運(yùn)算的有向圖鳞陨。圖中的節(jié)點(diǎn)(Nodes)代表數(shù)學(xué)運(yùn)算,而邊(Edges)則表示在這些節(jié)點(diǎn)之間流動(dòng)的多維數(shù)據(jù)陣列瞻惋,即張量(Tensors)厦滤。

-張量(Tensor):張量是TensorFlow中的基本數(shù)據(jù)結(jié)構(gòu),是任意維度的數(shù)組歼狼,可以表示標(biāo)量掏导、向量、矩陣以及更高維度的數(shù)據(jù)蹂匹。

動(dòng)態(tài)與靜態(tài)圖執(zhí)行模式:早期版本的TensorFlow支持靜態(tài)圖模式碘菜,在這種模式下用戶首先構(gòu)建計(jì)算圖,然后在一個(gè)獨(dú)立的會(huì)話(Session)中執(zhí)行限寞。隨著TensorFlow 2.x版本的推出忍啸,現(xiàn)在默認(rèn)采用Eager Execution模式,該模式提供了即時(shí)執(zhí)行環(huán)境履植,使得開發(fā)更加直觀和靈活计雌。

高級API:TensorFlow通過Keras API提供了高層次的抽象,簡化了模型構(gòu)建過程玫霎,使得無需詳細(xì)了解底層細(xì)節(jié)就能快速構(gòu)建神經(jīng)網(wǎng)絡(luò)凿滤。

-跨平臺(tái)性:TensorFlow可在多種平臺(tái)上運(yùn)行,包括CPU庶近、GPU以及專門針對大規(guī)模并行處理設(shè)計(jì)的硬件加速器如TPU(Tensor Processing Unit)翁脆。

廣泛的應(yīng)用領(lǐng)域:TensorFlow被廣泛應(yīng)用于圖像和語音識別、自然語言處理鼻种、強(qiáng)化學(xué)習(xí)反番、推薦系統(tǒng)、計(jì)算機(jī)視覺等諸多領(lǐng)域叉钥,既可用于研究也能方便地部署到生產(chǎn)環(huán)境罢缸。

訓(xùn)練流程:

- 構(gòu)建模型:利用`tf.keras`或其他低級API定義模型結(jié)構(gòu)。

- 編譯模型:指定損失函數(shù)投队、優(yōu)化器以及評估指標(biāo)枫疆。

- 準(zhǔn)備數(shù)據(jù):使用`tf.data` API處理和加載數(shù)據(jù)。

- 訓(xùn)練模型:通過`model.fit()`方法訓(xùn)練模型敷鸦。

- 評估與調(diào)整:在驗(yàn)證集上評估模型性能息楔,調(diào)整超參數(shù)寝贡。

- 部署模型:訓(xùn)練好的模型可以導(dǎo)出并在不同環(huán)境下(例如移動(dòng)設(shè)備、云端服務(wù)器等)部署和應(yīng)用钞螟。

總之兔甘,TensorFlow以其強(qiáng)大的功能和靈活性成為眾多數(shù)據(jù)科學(xué)家和工程師首選的深度學(xué)習(xí)框架之一。

六 tensorflow 個(gè)人訓(xùn)練小型模型的電腦配置

對于訓(xùn)練小型的TensorFlow模型鳞滨,所需的電腦配置相對較為適中洞焙,基本配置要求如下:

1. 處理器(CPU):

? - 可以使用中檔的Intel Core i5或AMD Ryzen 5系列處理器,確保有足夠的核心數(shù)和線程數(shù)來處理數(shù)據(jù)預(yù)處理和簡單模型訓(xùn)練拯啦。

2. 內(nèi)存(RAM):

? - 至少8GB內(nèi)存澡匪,對于小型模型訓(xùn)練一般足夠,但如果同時(shí)打開多個(gè)大型應(yīng)用程序或處理較大數(shù)據(jù)集褒链,建議使用16GB或更大的內(nèi)存以保證流暢運(yùn)行唁情。

3. 圖形處理器(GPU):

? - 小型模型的訓(xùn)練不一定需要GPU,可以直接在CPU上完成甫匹。但如果希望加速訓(xùn)練過程甸鸟,可以配備一塊入門級或中低端的NVIDIA CUDA兼容顯卡,例如GeForce GTX 1050 Ti或更高級別的顯卡兵迅,帶有至少4GB顯存即可抢韭。

4. 硬盤(Storage):

? - 高速的SSD固態(tài)硬盤(最好為NVMe SSD)用于存放數(shù)據(jù)集和模型文件,保證數(shù)據(jù)讀取速度恍箭。

5. 操作系統(tǒng)(OS):

? - 支持TensorFlow的64位操作系統(tǒng)刻恭,如Windows 10、macOS或Linux(Ubuntu等)扯夭。

6. 軟件環(huán)境:

? - 安裝最新穩(wěn)定版本的TensorFlow庫以及Python 3.x版本鳍贾。

? - 如果計(jì)劃使用GPU,確保安裝了適當(dāng)?shù)腘VIDIA驅(qū)動(dòng)程序以及CUDA和cuDNN庫交洗。

需要注意的是骑科,小型模型訓(xùn)練通常不會(huì)像大型模型那樣對硬件配置提出極高的要求,但也應(yīng)當(dāng)根據(jù)實(shí)際項(xiàng)目需求和預(yù)期的訓(xùn)練效率來選擇合適的配置构拳。如果你只是偶爾進(jìn)行小型模型訓(xùn)練咆爽,并且不追求極致的速度,那么現(xiàn)有的主流個(gè)人電腦配置很可能已經(jīng)滿足需求隐圾。如果需要頻繁訓(xùn)練或希望更快地得到訓(xùn)練結(jié)果,升級至具有GPU的系統(tǒng)將會(huì)顯著提高訓(xùn)練效率掰茶。

七 tensorflow 訓(xùn)練的步驟

訓(xùn)練一個(gè)TensorFlow模型通常涉及以下步驟:

1. 數(shù)據(jù)準(zhǔn)備:

? 數(shù)據(jù)收集:獲取所需格式的數(shù)據(jù)集暇藏,包括訓(xùn)練集、驗(yàn)證集和測試集濒蒋。

? 數(shù)據(jù)預(yù)處理:數(shù)據(jù)清洗盐碱、標(biāo)準(zhǔn)化把兔、歸一化、數(shù)據(jù)增強(qiáng)等瓮顽,確保數(shù)據(jù)符合模型輸入要求县好。

? 數(shù)據(jù)裝載:使用`tf.data.Dataset` API讀取數(shù)據(jù),它可以處理批量化暖混、亂序缕贡、緩存等功能,提高數(shù)據(jù)讀取效率拣播。

2. 模型定義:

導(dǎo)入TensorFlow庫晾咪。

? 構(gòu)建模型結(jié)構(gòu):使用`tf.keras.models.Sequential` 或 `tf.keras.Model` API定義模型架構(gòu),添加各層如卷積層贮配、全連接層谍倦、池化層等。

? - 編譯模型:設(shè)置損失函數(shù)(loss function)泪勒、優(yōu)化器(optimizer)和評估指標(biāo)(metrics)昼蛀。

? ```python

? import tensorflow as tf

? model = tf.keras.models.Sequential([

? ? ? # 添加層...

? ])

? model.compile(optimizer='adam',

? ? ? ? ? ? ? ? loss='categorical_crossentropy',

? ? ? ? ? ? ? ? metrics=['accuracy'])

? ```

3. 數(shù)據(jù)加載與迭代:

? 數(shù)據(jù)加載:實(shí)現(xiàn)類似`get_files`和`get_batch`這樣的輔助函數(shù)來組織數(shù)據(jù),或?qū)?shù)據(jù)讀入`tf.data.Dataset`對象中圆存。

? 以上內(nèi)容只是大模型的基礎(chǔ)概念知識叼旋,僅供參考。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末辽剧,一起剝皮案震驚了整個(gè)濱河市送淆,隨后出現(xiàn)的幾起案子杀饵,更是在濱河造成了極大的恐慌瘾敢,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,820評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件帚呼,死亡現(xiàn)場離奇詭異撞羽,居然都是意外死亡阐斜,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,648評論 3 399
  • 文/潘曉璐 我一進(jìn)店門诀紊,熙熙樓的掌柜王于貴愁眉苦臉地迎上來谒出,“玉大人,你說我怎么就攤上這事邻奠◇栽” “怎么了?”我有些...
    開封第一講書人閱讀 168,324評論 0 360
  • 文/不壞的土叔 我叫張陵碌宴,是天一觀的道長杀狡。 經(jīng)常有香客問我,道長贰镣,這世上最難降的妖魔是什么呜象? 我笑而不...
    開封第一講書人閱讀 59,714評論 1 297
  • 正文 為了忘掉前任膳凝,我火速辦了婚禮,結(jié)果婚禮上恭陡,老公的妹妹穿的比我還像新娘蹬音。我一直安慰自己,他們只是感情好休玩,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,724評論 6 397
  • 文/花漫 我一把揭開白布著淆。 她就那樣靜靜地躺著,像睡著了一般哥捕。 火紅的嫁衣襯著肌膚如雪牧抽。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 52,328評論 1 310
  • 那天遥赚,我揣著相機(jī)與錄音扬舒,去河邊找鬼。 笑死凫佛,一個(gè)胖子當(dāng)著我的面吹牛讲坎,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播愧薛,決...
    沈念sama閱讀 40,897評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼晨炕,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了毫炉?” 一聲冷哼從身側(cè)響起瓮栗,我...
    開封第一講書人閱讀 39,804評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎瞄勾,沒想到半個(gè)月后费奸,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,345評論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡进陡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,431評論 3 340
  • 正文 我和宋清朗相戀三年愿阐,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片趾疚。...
    茶點(diǎn)故事閱讀 40,561評論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡缨历,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出糙麦,到底是詐尸還是另有隱情辛孵,我是刑警寧澤,帶...
    沈念sama閱讀 36,238評論 5 350
  • 正文 年R本政府宣布赡磅,位于F島的核電站魄缚,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏仆邓。R本人自食惡果不足惜鲜滩,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,928評論 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望节值。 院中可真熱鬧徙硅,春花似錦、人聲如沸搞疗。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,417評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽匿乃。三九已至桩皿,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間幢炸,已是汗流浹背泄隔。 一陣腳步聲響...
    開封第一講書人閱讀 33,528評論 1 272
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留宛徊,地道東北人佛嬉。 一個(gè)月前我還...
    沈念sama閱讀 48,983評論 3 376
  • 正文 我出身青樓,卻偏偏與公主長得像闸天,于是被迫代替她去往敵國和親暖呕。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,573評論 2 359

推薦閱讀更多精彩內(nèi)容