機(jī)器學(xué)習(xí)一些基本概念http://mp.weixin.qq.com/s/E6D8QsTOADR5dcIy6qkqpQ

1)神經(jīng)元(Neuron)——就像形成我們大腦基本元素的神經(jīng)元一樣扁掸,神經(jīng)元形成神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)乓诽。想象一下坡氯,當(dāng)我們得到新信息時(shí)我們?cè)撛趺醋龀亢帷.?dāng)我們獲取信息時(shí)洋腮,我們一般會(huì)處理它,然后生成一個(gè)輸出手形。類似地啥供,在神經(jīng)網(wǎng)絡(luò)的情況下,神經(jīng)元接收輸入叁幢,處理它并產(chǎn)生輸出滤灯,而這個(gè)輸出被發(fā)送到其他神經(jīng)元用于進(jìn)一步處理,或者作為最終輸出進(jìn)行輸出曼玩。

2)權(quán)重(Weights)——當(dāng)輸入進(jìn)入神經(jīng)元時(shí)鳞骤,它會(huì)乘以一個(gè)權(quán)重。例如黍判,如果一個(gè)神經(jīng)元有兩個(gè)輸入豫尽,則每個(gè)輸入將具有分配給它的一個(gè)關(guān)聯(lián)權(quán)重。我們隨機(jī)初始化權(quán)重顷帖,并在模型訓(xùn)練過(guò)程中更新這些權(quán)重美旧。訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)對(duì)其輸入賦予較高的權(quán)重,這是它認(rèn)為與不那么重要的輸入相比更為重要的輸入贬墩。為零的權(quán)重則表示特定的特征是微不足道的榴嗅。

讓我們假設(shè)輸入為a,并且與其相關(guān)聯(lián)的權(quán)重為W1陶舞,那么在通過(guò)節(jié)點(diǎn)之后嗽测,輸入變?yōu)閍 * W1

3)偏差(Bias)——除了權(quán)重之外,另一個(gè)被應(yīng)用于輸入的線性分量被稱為偏差肿孵。它被加到權(quán)重與輸入相乘的結(jié)果中唠粥。基本上添加偏差的目的是來(lái)改變權(quán)重與輸入相乘所得結(jié)果的范圍的停做。添加偏差后晤愧,結(jié)果將看起來(lái)像a* W1 +偏差。這是輸入變換的最終線性分量蛉腌。

4)激活函數(shù)(Activation Function)——一旦將線性分量應(yīng)用于輸入官份,將會(huì)需要應(yīng)用一個(gè)非線性函數(shù)。這通過(guò)將激活函數(shù)應(yīng)用于線性組合來(lái)完成烙丛。激活函數(shù)將輸入信號(hào)轉(zhuǎn)換為輸出信號(hào)贯吓。應(yīng)用激活函數(shù)后的輸出看起來(lái)像f(a * W1 + b),其中f()就是激活函數(shù)蜀变。

在下圖中悄谐,我們將“n”個(gè)輸入給定為X1到Xn而與其相應(yīng)的權(quán)重為Wk1到Wkn。我們有一個(gè)給定值為bk的偏差库北。權(quán)重首先乘以與其對(duì)應(yīng)的輸入爬舰,然后與偏差加在一起们陆。而這個(gè)值叫做u。

U =ΣW* X+ b

激活函數(shù)被應(yīng)用于u情屹,即 f(u)坪仇,并且我們會(huì)從神經(jīng)元接收最終輸出,如yk = f(u)垃你。

常用的激活函數(shù)

最常用的激活函數(shù)就是Sigmoid椅文,ReLU和softmax

a)Sigmoid——最常用的激活函數(shù)之一是Sigmoid,它被定義為:

來(lái)源:維基百科

Sigmoid變換產(chǎn)生一個(gè)值為0到1之間更平滑的范圍惜颇。我們可能需要觀察在輸入值略有變化時(shí)輸出值中發(fā)生的變化皆刺。光滑的曲線使我們能夠做到這一點(diǎn),因此優(yōu)于階躍函數(shù)凌摄。

b)ReLU(整流線性單位)——與Sigmoid函數(shù)不同的是羡蛾,最近的網(wǎng)絡(luò)更喜歡使用ReLu激活函數(shù)來(lái)處理隱藏層宜鸯。該函數(shù)定義為:

當(dāng)X>0時(shí)睛蛛,函數(shù)的輸出值為X;當(dāng)X<=0時(shí)上祈,輸出值為0器予。函數(shù)圖如下圖所示:

來(lái)源:cs231n

使用ReLU函數(shù)的最主要的好處是對(duì)于大于0的所有輸入來(lái)說(shuō)浪藻,它都有一個(gè)不變的導(dǎo)數(shù)值。常數(shù)導(dǎo)數(shù)值有助于網(wǎng)絡(luò)訓(xùn)練進(jìn)行得更快乾翔。

c)Softmax——Softmax激活函數(shù)通常用于輸出層珠移,用于分類問(wèn)題。它與sigmoid函數(shù)是很類似的末融,唯一的區(qū)別就是輸出被歸一化為總和為1。Sigmoid函數(shù)將發(fā)揮作用以防我們有一個(gè)二進(jìn)制輸出暇韧,但是如果我們有一個(gè)多類分類問(wèn)題勾习,softmax函數(shù)使為每個(gè)類分配值這種操作變得相當(dāng)簡(jiǎn)單,而這可以將其解釋為概率懈玻。

以這種方式來(lái)操作的話巧婶,我們很容易看到——假設(shè)你正在嘗試識(shí)別一個(gè)可能看起來(lái)像8的6。該函數(shù)將為每個(gè)數(shù)字分配值如下涂乌。我們可以很容易地看出艺栈,最高概率被分配給6,而下一個(gè)最高概率分配給8湾盒,依此類推……

5)神經(jīng)網(wǎng)絡(luò)(Neural Network)——神經(jīng)網(wǎng)絡(luò)構(gòu)成了深度學(xué)習(xí)的支柱湿右。神經(jīng)網(wǎng)絡(luò)的目標(biāo)是找到一個(gè)未知函數(shù)的近似值。它由相互聯(lián)系的神經(jīng)元形成罚勾。這些神經(jīng)元具有權(quán)重和在網(wǎng)絡(luò)訓(xùn)練期間根據(jù)錯(cuò)誤來(lái)進(jìn)行更新的偏差毅人。激活函數(shù)將非線性變換置于線性組合吭狡,而這個(gè)線性組合稍后會(huì)生成輸出。激活的神經(jīng)元的組合會(huì)給出輸出值丈莺。

一個(gè)很好的神經(jīng)網(wǎng)絡(luò)定義——

“神經(jīng)網(wǎng)絡(luò)由許多相互關(guān)聯(lián)的概念化的人造神經(jīng)元組成划煮,它們之間傳遞相互數(shù)據(jù),并且具有根據(jù)網(wǎng)絡(luò)”經(jīng)驗(yàn)“調(diào)整的相關(guān)權(quán)重缔俄。神經(jīng)元具有激活閾值弛秋,如果通過(guò)其相關(guān)權(quán)重的組合和傳遞給他們的數(shù)據(jù)滿足這個(gè)閾值的話,其將被解雇;發(fā)射神經(jīng)元的組合導(dǎo)致“學(xué)習(xí)”俐载。

6)輸入/輸出/隱藏層(Input / Output / Hidden Layer)——正如它們名字所代表的那樣蟹略,輸入層是接收輸入那一層,本質(zhì)上是網(wǎng)絡(luò)的第一層瞎疼。而輸出層是生成輸出的那一層科乎,也可以說(shuō)是網(wǎng)絡(luò)的最終層。處理層是網(wǎng)絡(luò)中的隱藏層贼急。這些隱藏層是對(duì)傳入數(shù)據(jù)執(zhí)行特定任務(wù)并將其生成的輸出傳遞到下一層的那些層茅茂。輸入和輸出層是我們可見的,而中間層則是隱藏的太抓。

來(lái)源:cs231n

7)MLP(多層感知器)——單個(gè)神經(jīng)元將無(wú)法執(zhí)行高度復(fù)雜的任務(wù)空闲。因此,我們使用堆棧的神經(jīng)元來(lái)生成我們所需要的輸出走敌。在最簡(jiǎn)單的網(wǎng)絡(luò)中碴倾,我們將有一個(gè)輸入層、一個(gè)隱藏層和一個(gè)輸出層掉丽。每個(gè)層都有多個(gè)神經(jīng)元跌榔,并且每個(gè)層中的所有神經(jīng)元都連接到下一層的所有神經(jīng)元。這些網(wǎng)絡(luò)也可以被稱為完全連接的網(wǎng)絡(luò)捶障。

8)正向傳播(Forward Propagation)——正向傳播是指輸入通過(guò)隱藏層到輸出層的運(yùn)動(dòng)僧须。在正向傳播中,信息沿著一個(gè)單一方向前進(jìn)项炼。輸入層將輸入提供給隱藏層担平,然后生成輸出。這過(guò)程中是沒(méi)有反向運(yùn)動(dòng)的锭部。

9)成本函數(shù)(Cost Function)——當(dāng)我們建立一個(gè)網(wǎng)絡(luò)時(shí)暂论,網(wǎng)絡(luò)試圖將輸出預(yù)測(cè)得盡可能靠近實(shí)際值。我們使用成本/損失函數(shù)來(lái)衡量網(wǎng)絡(luò)的準(zhǔn)確性拌禾。而成本或損失函數(shù)會(huì)在發(fā)生錯(cuò)誤時(shí)嘗試懲罰網(wǎng)絡(luò)取胎。

我們?cè)谶\(yùn)行網(wǎng)絡(luò)時(shí)的目標(biāo)是提高我們的預(yù)測(cè)精度并減少誤差,從而最大限度地降低成本湃窍。最優(yōu)化的輸出是那些成本或損失函數(shù)值最小的輸出扼菠。

如果我將成本函數(shù)定義為均方誤差摄杂,則可以寫為:

C= 1/m ∑(y–a)^2,

其中m是訓(xùn)練輸入的數(shù)量循榆,a是預(yù)測(cè)值析恢,y是該特定示例的實(shí)際值。

學(xué)習(xí)過(guò)程圍繞最小化成本來(lái)進(jìn)行秧饮。

10)梯度下降(Gradient Descent)——梯度下降是一種最小化成本的優(yōu)化算法映挂。要直觀地想一想,在爬山的時(shí)候盗尸,你應(yīng)該會(huì)采取小步驟柑船,一步一步走下來(lái),而不是一下子跳下來(lái)泼各。因此鞍时,我們所做的就是,如果我們從一個(gè)點(diǎn)x開始扣蜻,我們向下移動(dòng)一點(diǎn)逆巍,即Δh,并將我們的位置更新為x-Δh莽使,并且我們繼續(xù)保持一致锐极,直到達(dá)到底部》技。考慮最低成本點(diǎn)灵再。

圖:https://www.youtube.com/watch?v=5u4G23_OohI

在數(shù)學(xué)上,為了找到函數(shù)的局部最小值亿笤,我們通常采取與函數(shù)梯度的負(fù)數(shù)成比例的步長(zhǎng)翎迁。

你可以通過(guò)這篇文章來(lái)詳細(xì)了解梯度下降。

11)學(xué)習(xí)率(Learning Rate)——學(xué)習(xí)率被定義為每次迭代中成本函數(shù)中最小化的量净薛。簡(jiǎn)單來(lái)說(shuō)汪榔,我們下降到成本函數(shù)的最小值的速率是學(xué)習(xí)率。我們應(yīng)該非常仔細(xì)地選擇學(xué)習(xí)率罕拂,因?yàn)樗粦?yīng)該是非常大的,以至于最佳解決方案被錯(cuò)過(guò)全陨,也不應(yīng)該非常低爆班,以至于網(wǎng)絡(luò)需要融合。


http://cs231n.github.io/neural-networks-3/

12)反向傳播(Backpropagation)——當(dāng)我們定義神經(jīng)網(wǎng)絡(luò)時(shí)辱姨,我們?yōu)槲覀兊墓?jié)點(diǎn)分配隨機(jī)權(quán)重和偏差值柿菩。一旦我們收到單次迭代的輸出,我們就可以計(jì)算出網(wǎng)絡(luò)的錯(cuò)誤雨涛。然后將該錯(cuò)誤與成本函數(shù)的梯度一起反饋給網(wǎng)絡(luò)以更新網(wǎng)絡(luò)的權(quán)重枢舶。 最后更新這些權(quán)重懦胞,以便減少后續(xù)迭代中的錯(cuò)誤。使用成本函數(shù)的梯度的權(quán)重的更新被稱為反向傳播凉泄。

在反向傳播中躏尉,網(wǎng)絡(luò)的運(yùn)動(dòng)是向后的,錯(cuò)誤隨著梯度從外層通過(guò)隱藏層流回后众,權(quán)重被更新胀糜。

13)批次(Batches)——在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的同時(shí),不用一次發(fā)送整個(gè)輸入蒂誉,我們將輸入分成幾個(gè)隨機(jī)大小相等的塊教藻。與整個(gè)數(shù)據(jù)集一次性饋送到網(wǎng)絡(luò)時(shí)建立的模型相比,批量訓(xùn)練數(shù)據(jù)使得模型更加廣義化右锨。

14)周期(Epochs)——周期被定義為向前和向后傳播中所有批次的單次訓(xùn)練迭代括堤。這意味著1個(gè)周期是整個(gè)輸入數(shù)據(jù)的單次向前和向后傳遞。

你可以選擇你用來(lái)訓(xùn)練網(wǎng)絡(luò)的周期數(shù)量绍移,更多的周期將顯示出更高的網(wǎng)絡(luò)準(zhǔn)確性悄窃,然而,網(wǎng)絡(luò)融合也需要更長(zhǎng)的時(shí)間登夫。另外广匙,你必須注意,如果周期數(shù)太高恼策,網(wǎng)絡(luò)可能會(huì)過(guò)度擬合鸦致。

15)丟棄(Dropout)——Dropout是一種正則化技術(shù),可防止網(wǎng)絡(luò)過(guò)度擬合套涣楷。顧名思義分唾,在訓(xùn)練期間,隱藏層中的一定數(shù)量的神經(jīng)元被隨機(jī)地丟棄狮斗。這意味著訓(xùn)練發(fā)生在神經(jīng)網(wǎng)絡(luò)的不同組合的神經(jīng)網(wǎng)絡(luò)的幾個(gè)架構(gòu)上绽乔。你可以將Dropout視為一種綜合技術(shù),然后將多個(gè)網(wǎng)絡(luò)的輸出用于產(chǎn)生最終輸出碳褒。

來(lái)源:Original paper

16)批量歸一化(Batch Normalization)——作為一個(gè)概念折砸,批量歸一化可以被認(rèn)為是我們?cè)诤恿髦性O(shè)定為特定檢查點(diǎn)的水壩。這樣做是為了確保數(shù)據(jù)的分發(fā)與希望獲得的下一層相同沙峻。當(dāng)我們訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)睦授,權(quán)重在梯度下降的每個(gè)步驟之后都會(huì)改變,這會(huì)改變數(shù)據(jù)的形狀如何發(fā)送到下一層摔寨。

但是下一層預(yù)期分布類似于之前所看到的分布去枷。 所以我們?cè)趯?shù)據(jù)發(fā)送到下一層之前明確規(guī)范化數(shù)據(jù)。

卷積神經(jīng)網(wǎng)絡(luò)

17)濾波器(Filters)——CNN中的濾波器與加權(quán)矩陣一樣,它與輸入圖像的一部分相乘以產(chǎn)生一個(gè)回旋輸出删顶。我們假設(shè)有一個(gè)大小為28 * 28的圖像竖螃,我們隨機(jī)分配一個(gè)大小為3 * 3的濾波器,然后與圖像不同的3 * 3部分相乘逗余,形成所謂的卷積輸出特咆。濾波器尺寸通常小于原始圖像尺寸。在成本最小化的反向傳播期間猎荠,濾波器值被更新為重量值坚弱。

參考一下下圖,這里filter是一個(gè)3 * 3矩陣:

與圖像的每個(gè)3 * 3部分相乘以形成卷積特征关摇。

18)卷積神經(jīng)網(wǎng)絡(luò)(CNN)——卷積神經(jīng)網(wǎng)絡(luò)基本上應(yīng)用于圖像數(shù)據(jù)荒叶。假設(shè)我們有一個(gè)輸入的大小(28 * 28 * 3)输虱,如果我們使用正常的神經(jīng)網(wǎng)絡(luò)些楣,將有2352(28 * 28 * 3)參數(shù)。并且隨著圖像的大小增加參數(shù)的數(shù)量變得非常大宪睹。我們“卷積”圖像以減少參數(shù)數(shù)量(如上面濾波器定義所示)愁茁。當(dāng)我們將濾波器滑動(dòng)到輸入體積的寬度和高度時(shí),將產(chǎn)生一個(gè)二維激活圖亭病,給出該濾波器在每個(gè)位置的輸出鹅很。我們將沿深度尺寸堆疊這些激活圖,并產(chǎn)生輸出量罪帖。

你可以看到下面的圖促煮,以獲得更清晰的印象。


19)池化(Pooling)——通常在卷積層之間定期引入池層整袁。這基本上是為了減少一些參數(shù)菠齿,并防止過(guò)度擬合。最常見的池化類型是使用MAX操作的濾波器尺寸(2,2)的池層坐昙。它會(huì)做的是绳匀,它將占用原始圖像的每個(gè)4 * 4矩陣的最大值。

來(lái)源:cs231n

你還可以使用其他操作(如平均池)進(jìn)行池化炸客,但是最大池?cái)?shù)量在實(shí)踐中表現(xiàn)更好疾棵。

20)填充(Padding)——填充是指在圖像之間添加額外的零層,以使輸出圖像的大小與輸入相同痹仙。這被稱為相同的填充是尔。

在應(yīng)用濾波器之后,在相同填充的情況下蝶溶,卷積層具有等于實(shí)際圖像的大小嗜历。

有效填充是指將圖像保持為具有實(shí)際或“有效”的圖像的所有像素。在這種情況下抖所,在應(yīng)用濾波器之后梨州,輸出的長(zhǎng)度和寬度的大小在每個(gè)卷積層處不斷減小。

21)數(shù)據(jù)增強(qiáng)(Data Augmentation)——數(shù)據(jù)增強(qiáng)是指從給定數(shù)據(jù)導(dǎo)出的新數(shù)據(jù)的添加田轧,這可能被證明對(duì)預(yù)測(cè)有益暴匠。例如,如果你使光線變亮傻粘,可能更容易在較暗的圖像中看到貓每窖,或者例如,數(shù)字識(shí)別中的9可能會(huì)稍微傾斜或旋轉(zhuǎn)弦悉。在這種情況下窒典,旋轉(zhuǎn)將解決問(wèn)題并提高我們的模型的準(zhǔn)確性。通過(guò)旋轉(zhuǎn)或增亮稽莉,我們正在提高數(shù)據(jù)的質(zhì)量瀑志。這被稱為數(shù)據(jù)增強(qiáng)。

循環(huán)神經(jīng)網(wǎng)絡(luò)

22)循環(huán)神經(jīng)元(Recurrent Neuron)——循環(huán)神經(jīng)元是在T時(shí)間內(nèi)將神經(jīng)元的輸出發(fā)送回給它污秆。如果你看圖劈猪,輸出將返回輸入t次。展開的神經(jīng)元看起來(lái)像連接在一起的t個(gè)不同的神經(jīng)元良拼。這個(gè)神經(jīng)元的基本優(yōu)點(diǎn)是它給出了更廣義的輸出战得。

23)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)——循環(huán)神經(jīng)網(wǎng)絡(luò)特別用于順序數(shù)據(jù),其中先前的輸出用于預(yù)測(cè)下一個(gè)輸出庸推。在這種情況下常侦,網(wǎng)絡(luò)中有循環(huán)。隱藏神經(jīng)元內(nèi)的循環(huán)使他們能夠存儲(chǔ)有關(guān)前一個(gè)單詞的信息一段時(shí)間予弧,以便能夠預(yù)測(cè)輸出刮吧。隱藏層的輸出在t時(shí)間戳內(nèi)再次發(fā)送到隱藏層。展開的神經(jīng)元看起來(lái)像上圖掖蛤。只有在完成所有的時(shí)間戳后杀捻,循環(huán)神經(jīng)元的輸出才能進(jìn)入下一層。發(fā)送的輸出更廣泛蚓庭,以前的信息保留的時(shí)間也較長(zhǎng)致讥。

然后根據(jù)展開的網(wǎng)絡(luò)將錯(cuò)誤反向傳播以更新權(quán)重。這被稱為通過(guò)時(shí)間的反向傳播(BPTT)器赞。

24)消失梯度問(wèn)題(Vanishing Gradient Problem)——激活函數(shù)的梯度非常小的情況下會(huì)出現(xiàn)消失梯度問(wèn)題垢袱。在權(quán)重乘以這些低梯度時(shí)的反向傳播過(guò)程中,它們往往變得非常小港柜,并且隨著網(wǎng)絡(luò)進(jìn)一步深入而“消失”请契。這使得神經(jīng)網(wǎng)絡(luò)忘記了長(zhǎng)距離依賴咳榜。這對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)是一個(gè)問(wèn)題,長(zhǎng)期依賴對(duì)于網(wǎng)絡(luò)來(lái)說(shuō)是非常重要的爽锥。

這可以通過(guò)使用不具有小梯度的激活函數(shù)ReLu來(lái)解決涌韩。

25)激增梯度問(wèn)題(Exploding Gradient Problem)——這與消失的梯度問(wèn)題完全相反,激活函數(shù)的梯度過(guò)大氯夷。在反向傳播期間臣樱,它使特定節(jié)點(diǎn)的權(quán)重相對(duì)于其他節(jié)點(diǎn)的權(quán)重非常高,這使得它們不重要腮考。這可以通過(guò)剪切梯度來(lái)輕松解決雇毫,使其不超過(guò)一定值。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末踩蔚,一起剝皮案震驚了整個(gè)濱河市棚放,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌馅闽,老刑警劉巖席吴,帶你破解...
    沈念sama閱讀 216,544評(píng)論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異捞蛋,居然都是意外死亡孝冒,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,430評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門拟杉,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)庄涡,“玉大人,你說(shuō)我怎么就攤上這事搬设⊙ǖ辏” “怎么了?”我有些...
    開封第一講書人閱讀 162,764評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵拿穴,是天一觀的道長(zhǎng)泣洞。 經(jīng)常有香客問(wèn)我,道長(zhǎng)默色,這世上最難降的妖魔是什么球凰? 我笑而不...
    開封第一講書人閱讀 58,193評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮腿宰,結(jié)果婚禮上呕诉,老公的妹妹穿的比我還像新娘。我一直安慰自己吃度,他們只是感情好甩挫,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,216評(píng)論 6 388
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著椿每,像睡著了一般伊者。 火紅的嫁衣襯著肌膚如雪英遭。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,182評(píng)論 1 299
  • 那天亦渗,我揣著相機(jī)與錄音贪绘,去河邊找鬼。 笑死央碟,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的均函。 我是一名探鬼主播亿虽,決...
    沈念sama閱讀 40,063評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼苞也!你這毒婦竟也來(lái)了洛勉?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 38,917評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤如迟,失蹤者是張志新(化名)和其女友劉穎收毫,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體殷勘,經(jīng)...
    沈念sama閱讀 45,329評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡此再,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,543評(píng)論 2 332
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了玲销。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片输拇。...
    茶點(diǎn)故事閱讀 39,722評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖贤斜,靈堂內(nèi)的尸體忽然破棺而出策吠,到底是詐尸還是另有隱情,我是刑警寧澤瘩绒,帶...
    沈念sama閱讀 35,425評(píng)論 5 343
  • 正文 年R本政府宣布猴抹,位于F島的核電站,受9級(jí)特大地震影響锁荔,放射性物質(zhì)發(fā)生泄漏蟀给。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,019評(píng)論 3 326
  • 文/蒙蒙 一阳堕、第九天 我趴在偏房一處隱蔽的房頂上張望坤溃。 院中可真熱鬧,春花似錦嘱丢、人聲如沸薪介。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,671評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)汁政。三九已至道偷,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間记劈,已是汗流浹背勺鸦。 一陣腳步聲響...
    開封第一講書人閱讀 32,825評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留目木,地道東北人换途。 一個(gè)月前我還...
    沈念sama閱讀 47,729評(píng)論 2 368
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像刽射,于是被迫代替她去往敵國(guó)和親军拟。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,614評(píng)論 2 353

推薦閱讀更多精彩內(nèi)容