自編碼算法與稀疏性

自編碼算法與稀疏性

分類:DL2013-07-19 20:18788人閱讀評(píng)論(0)收藏舉報(bào)

目錄(?)[+]

轉(zhuǎn)自u(píng)fldl罗晕,原文地址:http://deeplearning.stanford.edu/wiki/index.php/%E8%87%AA%E7%BC%96%E7%A0%81%E7%AE%97%E6%B3%95%E4%B8%8E%E7%A8%80%E7%96%8F%E6%80%A7

目前為止,我們已經(jīng)討論了神經(jīng)網(wǎng)絡(luò)在有監(jiān)督學(xué)習(xí)中的應(yīng)用肩钠。在有監(jiān)督學(xué)習(xí)中碾褂,訓(xùn)練樣本是有類別標(biāo)簽的∈藜洌現(xiàn)在假設(shè)我們只有一個(gè)沒有帶類別標(biāo)簽的訓(xùn)練樣本集合

,其中正塌。自編碼神經(jīng)網(wǎng)絡(luò)是一種無監(jiān)督學(xué)習(xí)算法嘀略,它使用了反向傳播算法,并讓目標(biāo)值等于輸入值乓诽,比如

帜羊。下圖是一個(gè)自編碼神經(jīng)網(wǎng)絡(luò)的示例。

自編碼神經(jīng)網(wǎng)絡(luò)嘗試學(xué)習(xí)一個(gè)

的函數(shù)鸠天。換句話說讼育,它嘗試逼近一個(gè)恒等函數(shù),從而使得輸出接近于輸入粮宛。恒等函數(shù)雖然看上去不太有學(xué)習(xí)的意義窥淆,但是當(dāng)我們?yōu)樽跃幋a神經(jīng)網(wǎng)絡(luò)加入某些限制,比如限定隱藏神經(jīng)元的數(shù)量巍杈,我們就可以從輸入數(shù)據(jù)中發(fā)現(xiàn)一些有趣的結(jié)構(gòu)忧饭。舉例來說,假設(shè)某個(gè)自編碼神經(jīng)網(wǎng)絡(luò)的輸入是一張圖像(共100個(gè)像素)的像素灰度值筷畦,于是词裤,其隱藏層中有50個(gè)隱藏神經(jīng)元。注意鳖宾,輸出也是100維的吼砂。由于只有50個(gè)隱藏神經(jīng)元,我們迫使自編碼神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí)輸入數(shù)據(jù)的壓縮表示鼎文,也就是說渔肩,它必須從50維的隱藏神經(jīng)元激活度向量中重構(gòu)出100維的像素灰度值輸入。如果網(wǎng)絡(luò)的輸入數(shù)據(jù)是完全隨機(jī)的拇惋,比如每一個(gè)輸入都是一個(gè)跟其它特征完全無關(guān)的獨(dú)立同分布高斯隨機(jī)變量周偎,那么這一壓縮表示將會(huì)非常難學(xué)習(xí)。但是如果輸入數(shù)據(jù)中隱含著一些特定的結(jié)構(gòu)撑帖,比如某些輸入特征是彼此相關(guān)的蓉坎,那么這一算法就可以發(fā)現(xiàn)輸入數(shù)據(jù)中的這些相關(guān)性。事實(shí)上胡嘿,這一簡單的自編碼神經(jīng)網(wǎng)絡(luò)通瞅劝可以學(xué)習(xí)出一個(gè)跟主元分析(PCA)結(jié)果非常相似的輸入數(shù)據(jù)的低維表示。

我們剛才的論述是基于隱藏神經(jīng)元數(shù)量較小的假設(shè)。但是即使隱藏神經(jīng)元的數(shù)量較大(可能比輸入像素的個(gè)數(shù)還要多)勿侯,我們?nèi)匀煌ㄟ^給自編碼神經(jīng)網(wǎng)絡(luò)施加一些其他的限制條件來發(fā)現(xiàn)輸入數(shù)據(jù)中的結(jié)構(gòu)拓瞪。具體來說,如果我們給隱藏神經(jīng)元加入稀疏性限制助琐,那么自編碼神經(jīng)網(wǎng)絡(luò)即使在隱藏神經(jīng)元數(shù)量較多的情況下仍然可以發(fā)現(xiàn)輸入數(shù)據(jù)中一些有趣的結(jié)構(gòu)吴藻。

稀疏性可以被簡單地解釋如下。如果當(dāng)神經(jīng)元的輸出接近于1的時(shí)候我們認(rèn)為它被激活弓柱,而輸出接近于0的時(shí)候認(rèn)為它被抑制沟堡,那么使得神經(jīng)元大部分的時(shí)間都是被抑制的限制則被稱作稀疏性限制。這里我們假設(shè)的神經(jīng)元的激活函數(shù)是sigmoid函數(shù)矢空。如果你使用tanh作為激活函數(shù)的話航罗,當(dāng)神經(jīng)元輸出為-1的時(shí)候,我們認(rèn)為神經(jīng)元是被抑制的屁药。

注意到表示隱藏神經(jīng)元的激活度粥血,但是這一表示方法中并未明確指出哪一個(gè)輸入帶來了這一激活度。所以我們將使用來表示在給定輸入為情況下酿箭,自編碼神經(jīng)網(wǎng)絡(luò)隱藏神經(jīng)元的激活度复亏。 進(jìn)一步,讓

表示隱藏神經(jīng)元的平均活躍度(在訓(xùn)練集上取平均)缭嫡。我們可以近似的加入一條限制

其中缔御,是稀疏性參數(shù),通常是一個(gè)接近于0的較小的值(比如)妇蛀。換句話說耕突,我們想要讓隱藏神經(jīng)元的平均活躍度接近0.05。為了滿足這一條件评架,隱藏神經(jīng)元的活躍度必須接近于0眷茁。

為了實(shí)現(xiàn)這一限制,我們將會(huì)在我們的優(yōu)化目標(biāo)函數(shù)中加入一個(gè)額外的懲罰因子纵诞,而這一懲罰因子將懲罰那些和有顯著不同的情況從而使得隱藏神經(jīng)元的平均活躍度保持在較小范圍內(nèi)上祈。懲罰因子的具體形式有很多種合理的選擇,我們將會(huì)選擇以下這一種:

這里浙芙,是隱藏層中隱藏神經(jīng)元的數(shù)量登刺,而索引依次代表隱藏層中的每一個(gè)神經(jīng)元。如果你對(duì)相對(duì)熵(KL divergence)比較熟悉茁裙,這一懲罰因子實(shí)際上是基于它的塘砸。于是懲罰因子也可以被表示為

其中

是一個(gè)以為均值和一個(gè)以為均值的兩個(gè)伯努利隨機(jī)變量之間的相對(duì)熵节仿。相對(duì)熵是一種標(biāo)準(zhǔn)的用來測(cè)量兩個(gè)分布之間差異的方法晤锥。(如果你沒有見過相對(duì)熵,不用擔(dān)心,所有你需要知道的內(nèi)容都會(huì)被包含在這份筆記之中矾瘾。)

這一懲罰因子有如下性質(zhì)女轿,當(dāng)時(shí),并且隨著與之間的差異增大而單調(diào)遞增壕翩。舉例來說蛉迹,在下圖中,我們?cè)O(shè)定并且畫出了相對(duì)熵值

隨著變化的變化放妈。

我們可以看出北救,相對(duì)熵在時(shí)達(dá)到它的最小值0,而當(dāng)靠近0或者1的時(shí)候芜抒,相對(duì)熵則變得非常大(其實(shí)是趨向于)珍策。所以,最小化這一懲罰因子具有使得靠近的效果宅倒。 現(xiàn)在攘宙,我們的總體代價(jià)函數(shù)可以表示為

其中如之前所定義,而控制稀疏性懲罰因子的權(quán)重拐迁。項(xiàng)則也(間接地)取決于蹭劈,因?yàn)樗请[藏神經(jīng)元的平均激活度,而隱藏層神經(jīng)元的激活度取決于线召。

為了對(duì)相對(duì)熵進(jìn)行導(dǎo)數(shù)計(jì)算铺韧,我們可以使用一個(gè)易于實(shí)現(xiàn)的技巧,這只需要在你的程序中稍作改動(dòng)即可缓淹。具體來說祟蚀,前面在后向傳播算法中計(jì)算第二層()更新的時(shí)候我們已經(jīng)計(jì)算了

現(xiàn)在我們將其換成

就可以了。

有一個(gè)需要注意的地方就是我們需要知道來計(jì)算這一項(xiàng)更新割卖。所以在計(jì)算任何神經(jīng)元的后向傳播之前前酿,你需要對(duì)所有的訓(xùn)練樣本計(jì)算一遍前向傳播,從而獲取平均激活度鹏溯。如果你的訓(xùn)練樣本可以小到被整個(gè)存到內(nèi)存之中(對(duì)于編程作業(yè)來說罢维,通常如此),你可以方便地在你所有的樣本上計(jì)算前向傳播并將得到的激活度存入內(nèi)存并且計(jì)算平均激活度 丙挽。然后你就可以使用事先計(jì)算好的激活度來對(duì)所有的訓(xùn)練樣本進(jìn)行后向傳播的計(jì)算肺孵。如果你的數(shù)據(jù)量太大,無法全部存入內(nèi)存颜阐,你就可以掃過你的訓(xùn)練樣本并計(jì)算一次前向傳播平窘,然后將獲得的結(jié)果累積起來并計(jì)算平均激活度(當(dāng)某一個(gè)前向傳播的結(jié)果中的激活度被用于計(jì)算平均激活度之后就可以將此結(jié)果刪除)。然后當(dāng)你完成平均激活度的計(jì)算之后凳怨,你需要重新對(duì)每一個(gè)訓(xùn)練樣本做一次前向傳播從而可以對(duì)其進(jìn)行后向傳播的計(jì)算瑰艘。對(duì)于后一種情況是鬼,你對(duì)每一個(gè)訓(xùn)練樣本需要計(jì)算兩次前向傳播,所以在計(jì)算上的效率會(huì)稍低一些紫新。

證明上面算法能達(dá)到梯度下降效果的完整推導(dǎo)過程不再本教程的范圍之內(nèi)均蜜。不過如果你想要使用經(jīng)過以上修改的后向傳播來實(shí)現(xiàn)自編碼神經(jīng)網(wǎng)絡(luò),那么你就會(huì)對(duì)目標(biāo)函數(shù)

做梯度下降芒率。使用梯度驗(yàn)證方法囤耳,你可以自己來驗(yàn)證梯度下降算法是否正確。偶芍。

中英文對(duì)照

自編碼算法 Autoencoders

稀疏性 Sparsity

神經(jīng)網(wǎng)絡(luò) neural networks

監(jiān)督學(xué)習(xí) supervised learning

無監(jiān)督學(xué)習(xí) unsupervised learning

反向傳播算法 backpropagation

隱藏神經(jīng)元 hidden units

像素灰度值 the pixel intensity value

獨(dú)立同分布 IID

主元分析 PCA

激活 active

抑制 inactive

激活函數(shù) activation function

激活度 activation

平均活躍度 the average activation

稀疏性參數(shù) sparsity parameter

懲罰因子 penalty term

相對(duì)熵 KL divergence

伯努利隨機(jī)變量 Bernoulli random variable

總體代價(jià)函數(shù) overall cost function

后向傳播 backpropagation

前向傳播 forward pass

梯度下降 gradient descent

目標(biāo)函數(shù) the objective

梯度驗(yàn)證方法 the derivative checking method

中文譯者

周韜(ztsailing@gmail.com)充择,葛燕儒(yrgehi@gmail.com),林鋒(xlfg@yeah.net)匪蟀,余凱(kai.yu.cool@gmail.com)

目前為止聪铺,我們已經(jīng)討論了神經(jīng)網(wǎng)絡(luò)在有監(jiān)督學(xué)習(xí)中的應(yīng)用。在有監(jiān)督學(xué)習(xí)中萄窜,訓(xùn)練樣本是有類別標(biāo)簽的×逄蓿現(xiàn)在假設(shè)我們只有一個(gè)沒有帶類別標(biāo)簽的訓(xùn)練樣本集合

,其中

查刻。自編碼神經(jīng)網(wǎng)絡(luò)是一種無監(jiān)督學(xué)習(xí)算法键兜,它使用了反向傳播算法,并讓目標(biāo)值等于輸入值穗泵,比如

普气。下圖是一個(gè)自編碼神經(jīng)網(wǎng)絡(luò)的示例。

自編碼神經(jīng)網(wǎng)絡(luò)嘗試學(xué)習(xí)一個(gè)

的函數(shù)佃延。換句話說现诀,它嘗試逼近一個(gè)恒等函數(shù),從而使得輸出

接近于輸入

履肃。恒等函數(shù)雖然看上去不太有學(xué)習(xí)的意義仔沿,但是當(dāng)我們?yōu)樽跃幋a神經(jīng)網(wǎng)絡(luò)加入某些限制,比如限定隱藏神經(jīng)元的數(shù)量尺棋,我們就可以從輸入數(shù)據(jù)中發(fā)現(xiàn)一些有趣的結(jié)構(gòu)封锉。舉例來說,假設(shè)某個(gè)自編碼神經(jīng)網(wǎng)絡(luò)的輸入

是一張

圖像(共100個(gè)像素)的像素灰度值膘螟,于是

成福,其隱藏層

中有50個(gè)隱藏神經(jīng)元。注意荆残,輸出也是100維的

奴艾。由于只有50個(gè)隱藏神經(jīng)元,我們迫使自編碼神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí)輸入數(shù)據(jù)的壓縮表示内斯,也就是說蕴潦,它必須從50維的隱藏神經(jīng)元激活度向量

重構(gòu)出100維的像素灰度值輸入

像啼。如果網(wǎng)絡(luò)的輸入數(shù)據(jù)是完全隨機(jī)的,比如每一個(gè)輸入

都是一個(gè)跟其它特征完全無關(guān)的獨(dú)立同分布高斯隨機(jī)變量品擎,那么這一壓縮表示將會(huì)非常難學(xué)習(xí)。但是如果輸入數(shù)據(jù)中隱含著一些特定的結(jié)構(gòu)备徐,比如某些輸入特征是彼此相關(guān)的萄传,那么這一算法就可以發(fā)現(xiàn)輸入數(shù)據(jù)中的這些相關(guān)性。事實(shí)上蜜猾,這一簡單的自編碼神經(jīng)網(wǎng)絡(luò)通承懔猓可以學(xué)習(xí)出一個(gè)跟主元分析(PCA)結(jié)果非常相似的輸入數(shù)據(jù)的低維表示。

我們剛才的論述是基于隱藏神經(jīng)元數(shù)量較小的假設(shè)蹭睡。但是即使隱藏神經(jīng)元的數(shù)量較大(可能比輸入像素的個(gè)數(shù)還要多)衍菱,我們?nèi)匀煌ㄟ^給自編碼神經(jīng)網(wǎng)絡(luò)施加一些其他的限制條件來發(fā)現(xiàn)輸入數(shù)據(jù)中的結(jié)構(gòu)。具體來說肩豁,如果我們給隱藏神經(jīng)元加入稀疏性限制脊串,那么自編碼神經(jīng)網(wǎng)絡(luò)即使在隱藏神經(jīng)元數(shù)量較多的情況下仍然可以發(fā)現(xiàn)輸入數(shù)據(jù)中一些有趣的結(jié)構(gòu)。

稀疏性可以被簡單地解釋如下清钥。如果當(dāng)神經(jīng)元的輸出接近于1的時(shí)候我們認(rèn)為它被激活琼锋,而輸出接近于0的時(shí)候認(rèn)為它被抑制,那么使得神經(jīng)元大部分的時(shí)間都是被抑制的限制則被稱作稀疏性限制祟昭。這里我們假設(shè)的神經(jīng)元的激活函數(shù)是sigmoid函數(shù)缕坎。如果你使用tanh作為激活函數(shù)的話,當(dāng)神經(jīng)元輸出為-1的時(shí)候篡悟,我們認(rèn)為神經(jīng)元是被抑制的谜叹。

注意到

表示隱藏神經(jīng)元

的激活度,但是這一表示方法中并未明確指出哪一個(gè)輸入

帶來了這一激活度搬葬。所以我們將使用

來表示在給定輸入為

情況下荷腊,自編碼神經(jīng)網(wǎng)絡(luò)隱藏神經(jīng)元

的激活度。 進(jìn)一步急凰,讓

表示隱藏神經(jīng)元

的平均活躍度(在訓(xùn)練集上取平均)脾还。我們可以近似的加入一條限制

其中忙厌,

稀疏性參數(shù),通常是一個(gè)接近于0的較小的值(比如

)。換句話說叶眉,我們想要讓隱藏神經(jīng)元

的平均活躍度接近0.05。為了滿足這一條件绘面,隱藏神經(jīng)元的活躍度必須接近于0涣楷。

為了實(shí)現(xiàn)這一限制,我們將會(huì)在我們的優(yōu)化目標(biāo)函數(shù)中加入一個(gè)額外的懲罰因子勿璃,而這一懲罰因子將懲罰那些

有顯著不同的情況從而使得隱藏神經(jīng)元的平均活躍度保持在較小范圍內(nèi)擒抛。懲罰因子的具體形式有很多種合理的選擇推汽,我們將會(huì)選擇以下這一種:

這里,

是隱藏層中隱藏神經(jīng)元的數(shù)量歧沪,而索引

依次代表隱藏層中的每一個(gè)神經(jīng)元歹撒。如果你對(duì)相對(duì)熵(KL divergence)比較熟悉,這一懲罰因子實(shí)際上是基于它的诊胞。于是懲罰因子也可以被表示為

其中

是一個(gè)以

為均值和一個(gè)以

為均值的兩個(gè)伯努利隨機(jī)變量之間的相對(duì)熵暖夭。相對(duì)熵是一種標(biāo)準(zhǔn)的用來測(cè)量兩個(gè)分布之間差異的方法。(如果你沒有見過相對(duì)熵撵孤,不用擔(dān)心迈着,所有你需要知道的內(nèi)容都會(huì)被包含在這份筆記之中。)

這一懲罰因子有如下性質(zhì)邪码,當(dāng)

時(shí)

裕菠,并且隨著

之間的差異增大而單調(diào)遞增。舉例來說闭专,在下圖中奴潘,我們?cè)O(shè)定

并且畫出了相對(duì)熵值

隨著

變化的變化。

我們可以看出影钉,相對(duì)熵在

時(shí)達(dá)到它的最小值0萤彩,而當(dāng)

靠近0或者1的時(shí)候,相對(duì)熵則變得非常大(其實(shí)是趨向于

)斧拍。所以雀扶,最小化這一懲罰因子具有使得

靠近

的效果。 現(xiàn)在肆汹,我們的總體代價(jià)函數(shù)可以表示為

其中

如之前所定義愚墓,而

控制稀疏性懲罰因子的權(quán)重。

項(xiàng)則也(間接地)取決于

昂勉,因?yàn)樗请[藏神經(jīng)元

的平均激活度浪册,而隱藏層神經(jīng)元的激活度取決于

為了對(duì)相對(duì)熵進(jìn)行導(dǎo)數(shù)計(jì)算岗照,我們可以使用一個(gè)易于實(shí)現(xiàn)的技巧村象,這只需要在你的程序中稍作改動(dòng)即可。具體來說攒至,前面在后向傳播算法中計(jì)算第二層(

)更新的時(shí)候我們已經(jīng)計(jì)算了

現(xiàn)在我們將其換成

就可以了厚者。

有一個(gè)需要注意的地方就是我們需要知道

來計(jì)算這一項(xiàng)更新。所以在計(jì)算任何神經(jīng)元的后向傳播之前迫吐,你需要對(duì)所有的訓(xùn)練樣本計(jì)算一遍前向傳播库菲,從而獲取平均激活度。如果你的訓(xùn)練樣本可以小到被整個(gè)存到內(nèi)存之中(對(duì)于編程作業(yè)來說志膀,通常如此)熙宇,你可以方便地在你所有的樣本上計(jì)算前向傳播并將得到的激活度存入內(nèi)存并且計(jì)算平均激活度 鳖擒。然后你就可以使用事先計(jì)算好的激活度來對(duì)所有的訓(xùn)練樣本進(jìn)行后向傳播的計(jì)算。如果你的數(shù)據(jù)量太大烫止,無法全部存入內(nèi)存蒋荚,你就可以掃過你的訓(xùn)練樣本并計(jì)算一次前向傳播,然后將獲得的結(jié)果累積起來并計(jì)算平均激活度

(當(dāng)某一個(gè)前向傳播的結(jié)果中的激活度

被用于計(jì)算平均激活度

之后就可以將此結(jié)果刪除)馆蠕。然后當(dāng)你完成平均激活度

的計(jì)算之后期升,你需要重新對(duì)每一個(gè)訓(xùn)練樣本做一次前向傳播從而可以對(duì)其進(jìn)行后向傳播的計(jì)算。對(duì)于后一種情況荆几,你對(duì)每一個(gè)訓(xùn)練樣本需要計(jì)算兩次前向傳播吓妆,所以在計(jì)算上的效率會(huì)稍低一些赊时。

證明上面算法能達(dá)到梯度下降效果的完整推導(dǎo)過程不再本教程的范圍之內(nèi)吨铸。不過如果你想要使用經(jīng)過以上修改的后向傳播來實(shí)現(xiàn)自編碼神經(jīng)網(wǎng)絡(luò),那么你就會(huì)對(duì)目標(biāo)函數(shù)

做梯度下降祖秒。使用梯度驗(yàn)證方法诞吱,你可以自己來驗(yàn)證梯度下降算法是否正確。竭缝。

中英文對(duì)照

自編碼算法 Autoencoders

稀疏性 Sparsity

神經(jīng)網(wǎng)絡(luò) neural networks

監(jiān)督學(xué)習(xí) supervised learning

無監(jiān)督學(xué)習(xí) unsupervised learning

反向傳播算法 backpropagation

隱藏神經(jīng)元 hidden units

像素灰度值 the pixel intensity value

獨(dú)立同分布 IID

主元分析 PCA

激活 active

抑制 inactive

激活函數(shù) activation function

激活度 activation

平均活躍度 the average activation

稀疏性參數(shù) sparsity parameter

懲罰因子 penalty term

相對(duì)熵 KL divergence

伯努利隨機(jī)變量 Bernoulli random variable

總體代價(jià)函數(shù) overall cost function

后向傳播 backpropagation

前向傳播 forward pass

梯度下降 gradient descent

目標(biāo)函數(shù) the objective

梯度驗(yàn)證方法 the derivative checking method

中文譯者

周韜(ztsailing@gmail.com)房维,葛燕儒(yrgehi@gmail.com),林鋒(xlfg@yeah.net)抬纸,余凱(kai.yu.cool@gmail.com)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末咙俩,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子湿故,更是在濱河造成了極大的恐慌阿趁,老刑警劉巖,帶你破解...
    沈念sama閱讀 212,718評(píng)論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件坛猪,死亡現(xiàn)場(chǎng)離奇詭異脖阵,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)墅茉,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,683評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門命黔,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人就斤,你說我怎么就攤上這事悍募。” “怎么了洋机?”我有些...
    開封第一講書人閱讀 158,207評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵搜立,是天一觀的道長。 經(jīng)常有香客問我槐秧,道長啄踊,這世上最難降的妖魔是什么忧设? 我笑而不...
    開封第一講書人閱讀 56,755評(píng)論 1 284
  • 正文 為了忘掉前任,我火速辦了婚禮颠通,結(jié)果婚禮上址晕,老公的妹妹穿的比我還像新娘。我一直安慰自己顿锰,他們只是感情好谨垃,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,862評(píng)論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著硼控,像睡著了一般刘陶。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上牢撼,一...
    開封第一講書人閱讀 50,050評(píng)論 1 291
  • 那天匙隔,我揣著相機(jī)與錄音,去河邊找鬼熏版。 笑死纷责,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的撼短。 我是一名探鬼主播再膳,決...
    沈念sama閱讀 39,136評(píng)論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼曲横!你這毒婦竟也來了喂柒?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,882評(píng)論 0 268
  • 序言:老撾萬榮一對(duì)情侶失蹤禾嫉,失蹤者是張志新(化名)和其女友劉穎灾杰,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體夭织,經(jīng)...
    沈念sama閱讀 44,330評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡吭露,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,651評(píng)論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了尊惰。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片讲竿。...
    茶點(diǎn)故事閱讀 38,789評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖弄屡,靈堂內(nèi)的尸體忽然破棺而出题禀,到底是詐尸還是另有隱情,我是刑警寧澤膀捷,帶...
    沈念sama閱讀 34,477評(píng)論 4 333
  • 正文 年R本政府宣布迈嘹,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏秀仲。R本人自食惡果不足惜融痛,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 40,135評(píng)論 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望神僵。 院中可真熱鬧雁刷,春花似錦、人聲如沸保礼。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,864評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽炮障。三九已至目派,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間胁赢,已是汗流浹背企蹭。 一陣腳步聲響...
    開封第一講書人閱讀 32,099評(píng)論 1 267
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留徘键,地道東北人练对。 一個(gè)月前我還...
    沈念sama閱讀 46,598評(píng)論 2 362
  • 正文 我出身青樓遍蟋,卻偏偏與公主長得像吹害,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子虚青,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,697評(píng)論 2 351

推薦閱讀更多精彩內(nèi)容

  • 很早就看了晨讀資料了它呀,奈何沒時(shí)間來寫。現(xiàn)在補(bǔ)補(bǔ)棒厘! 數(shù)量&質(zhì)量 政治課上學(xué)過纵穿,量變到達(dá)一定程度,才引來質(zhì)變的飛躍奢人。積...
    Amoy_Amon閱讀 212評(píng)論 0 0
  • 學(xué)習(xí)此部分的目的:發(fā)現(xiàn)在沒有單獨(dú)的行動(dòng)可以解決問題的時(shí)候谓媒,機(jī)器如何找到一個(gè)行動(dòng)序列達(dá)到他的目標(biāo);在這部分中何乎,通過討...
    云時(shí)之間閱讀 605評(píng)論 0 2