我是這樣一步步理解--主題模型(Topic Model)、LDA(案例代碼)

1. LDA模型是什么

LDA可以分為以下5個步驟:

  • 一個函數(shù):gamma函數(shù)怎静。
  • 四個分布:二項分布邮弹、多項分布、beta分布蚓聘、Dirichlet分布腌乡。
  • 一個概念和一個理念:共軛先驗和貝葉斯框架。
  • 兩個模型:pLSA夜牡、LDA与纽。
  • 一個采樣:Gibbs采樣

關(guān)于LDA有兩種含義,一種是線性判別分析(Linear Discriminant Analysis)塘装,一種是概率主題模型:隱含狄利克雷分布(Latent Dirichlet Allocation急迂,簡稱LDA),本文講后者蹦肴。

按照wiki上的介紹僚碎,LDA由Blei, David M.、Ng, Andrew Y.阴幌、Jordan于2003年提出勺阐,是一種主題模型,它可以將文檔集 中每篇文檔的主題以概率分布的形式給出矛双,從而通過分析一些文檔抽取出它們的主題(分布)出來后渊抽,便可以根據(jù)主題(分布)進行主題聚類或文本分類。同時议忽,它是一種典型的詞袋模型懒闷,即一篇文檔是由一組詞構(gòu)成,詞與詞之間沒有先后順序的關(guān)系栈幸。此外愤估,一篇文檔可以包含多個主題,文檔中每一個詞都由其中的一個主題生成侦镇。

人類是怎么生成文檔的呢?首先先列出幾個主題织阅,然后以一定的概率選擇主題壳繁,以一定的概率選擇這個主題包含的詞匯,最終組合成一篇文章。如下圖所示(其中不同顏色的詞語分別對應(yīng)上圖中不同主題下的詞)闹炉。

image

那么LDA就是跟這個反過來:根據(jù)給定的一篇文檔蒿赢,反推其主題分布。

在LDA模型中渣触,一篇文檔生成的方式如下:

  • 從狄利克雷分布 \alpha 中取樣生成文檔 i 的主題分布 \theta_i羡棵。
  • 從主題的多項式分布 \theta_i 中取樣生成文檔i第 j 個詞的主題 z_{i,j}
  • 從狄利克雷分布 \beta 中取樣生成主題 z_{i,j} 對應(yīng)的詞語分布 \phi_{z_{i,j}}嗅钻。
  • 從詞語的多項式分布 \phi_{z_{i,j}} 中采樣最終生成詞語 w_{i,j}皂冰。

其中,類似Beta分布是二項式分布的共軛先驗概率分布养篓,而狄利克雷分布(Dirichlet分布)是多項式分布的共軛先驗概率分布秃流。此外,LDA的圖模型結(jié)構(gòu)如下圖所示(類似貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)):

image

1.1 5個分布的理解

先解釋一下以上出現(xiàn)的概念柳弄。

  1. 二項分布(Binomial distribution)

    二項分布是從伯努利分布推進的舶胀。伯努利分布,又稱兩點分布或0-1分布碧注,是一個離散型的隨機分布嚣伐,其中的隨機變量只有兩類取值,非正即負{+萍丐,-}轩端。而二項分布即重復n次的伯努利試驗,記為 X\sim_{}b(n,p)碉纺。簡言之船万,只做一次實驗,是伯努利分布骨田,重復做了n次耿导,是二項分布。

  2. 多項分布

    是二項分布擴展到多維的情況态贤。多項分布是指單次試驗中的隨機變量的取值不再是0-1的舱呻,而是有多種離散值可能(1,2,3...,k)。比如投擲6個面的骰子實驗悠汽,N次實驗結(jié)果服從K=6的多項分布箱吕。其中:

    \sum_{i=1}^{k}p_i=1,p_i>0

  3. 共軛先驗分布

    貝葉斯統(tǒng)計中,如果后驗分布先驗分布屬于同類柿冲,則先驗分布與后驗分布被稱為共軛分布茬高,而先驗分布被稱為似然函數(shù)的共軛先驗

  4. Beta分布

    二項分布的共軛先驗分布假抄。給定參數(shù) \alpha>0\beta>0怎栽,取值范圍為[0,1]的隨機變量 x 的概率密度函數(shù):

    f(x;\alpha,\beta)=\frac{1}{B(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1}

    其中:

    \frac{1}{B(\alpha,\beta)}=\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}

    \Gamma(z)=\int_{0}^{\infty}t^{z-1}e^{-t}dt

    注:這便是所謂的gamma函數(shù)丽猬,下文會具體闡述。

  5. 狄利克雷分布

    是beta分布在高維度上的推廣熏瞄。Dirichlet分布的的密度函數(shù)形式跟beta分布的密度函數(shù)如出一轍:

    f(x_1,x_2,...,x_k;\alpha_1,\alpha_2,...,\alpha_k)=\frac{1}{B(\alpha)}\prod_{i=1}^{k}x_i^{\alpha^i-1}

    其中

    B(\alpha)=\frac{\prod_{i=1}^{k}\Gamma(\alpha^i)}{\Gamma(\sum_{i=1}^{k}\alpha^i)},\sum_{}x_i=1

至此脚祟,我們可以看到二項分布和多項分布很相似,Beta分布和Dirichlet 分布很相似强饮。

如果想要深究其原理可以參考:通俗理解LDA主題模型由桌,也可以先往下走,最后在回過頭來看詳細的公式邮丰,就更能明白了行您。

總之,可以得到以下幾點信息柠座。

  • beta分布是二項式分布的共軛先驗概率分布:對于非負實數(shù) \alpha\beta 邑雅,我們有如下關(guān)系:

    Beta(p|\alpha,\beta)+Count(m_1,m_2)=Beta(p|\alpha+m_1,\beta+m_2)

    其中 (m_1,m_2) 對應(yīng)的是二項分布 B(m_1+m_2,p) 的記數(shù)。針對于這種觀測到的數(shù)據(jù)符合二項分布妈经,參數(shù)的先驗分布和后驗分布都是Beta分布的情況淮野,就是Beta-Binomial 共軛〈蹬荩”

  • 狄利克雷分布(Dirichlet分布)是多項式分布的共軛先驗概率分布骤星,一般表達式如下:

    Dir(\vec{p}|\vec\alpha)+MultCount(\vec{m})=Dir(p|\vec{\alpha}+\vec{m})

    針對于這種觀測到的數(shù)據(jù)符合多項分布,參數(shù)的先驗分布和后驗分布都是Dirichlet 分布的情況爆哑,就是 Dirichlet-Multinomial 共軛洞难。 ”

  • 貝葉斯派思考問題的固定模式:

    先驗分布 \pi(\theta)+ 樣本信息 X = 后驗分布 \pi(\theta|x)

1.2 3個基礎(chǔ)模型的理解

在講LDA模型之前揭朝,再循序漸進理解基礎(chǔ)模型:Unigram model队贱、mixture of unigrams model,以及跟LDA最為接近的pLSA模型潭袱。為了方便描述柱嫌,首先定義一些變量:

  • w 表示詞,V 表示所有單詞的個數(shù)(固定值)屯换。
  • z 表示主題编丘,k 是主題的個數(shù)(預先給定,固定值)彤悔。
  • D=(W_1,...,W_M) 表示語料庫嘉抓,其中的M是語料庫中的文檔數(shù)(固定值)。
  • W=(w_1,w_2,...,w_N) 表示文檔晕窑,其中的N表示一個文檔中的詞數(shù)(隨機變量)抑片。
  1. Unigram model

    對于文檔W=(w_1,w_2,...,w_N),用 p(w_n) 表示詞 w_n 的先驗概率杨赤,生成文檔w的概率為:

    p(W)=\prod_{n=1}^{N}p(w_n)

  2. Mixture of unigrams model

    該模型的生成過程是:給某個文檔先選擇一個主題z,再根據(jù)該主題生成文檔敞斋,該文檔中的所有詞都來自一個主題级遭。假設(shè)主題有 z_1,...,z_n,生成文檔w的概率為:

    p(W)=p(z_1)\prod_{n=1}^{N}p(w_n|z_1)+...+p(z_k)\prod_{n=1}^{N}p(w_n|z_k)=\sum_{z}p(z)\prod_{n=1}^{N}p(w_n|z)

  3. PLSA模型

    理解了pLSA模型后渺尘,到LDA模型也就一步之遙——給pLSA加上貝葉斯框架,便是LDA说敏。

    在上面的Mixture of unigrams model中鸥跟,我們假定一篇文檔只有一個主題生成,可實際中盔沫,一篇文章往往有多個主題医咨,只是這多個主題各自在文檔中出現(xiàn)的概率大小不一樣。比如介紹一個國家的文檔中架诞,往往會分別從教育拟淮、經(jīng)濟、交通等多個主題進行介紹谴忧。那么在pLSA中很泊,文檔是怎樣被生成的呢?

    假定你一共有K個可選的主題沾谓,有V個可選的詞委造,咱們來玩一個扔骰子的游戲。

    一均驶、假設(shè)你每寫一篇文檔會制作一顆K面的“文檔-主題”骰子(扔此骰子能得到K個主題中的任意一個)昏兆,和K個V面的“主題-詞項” 骰子(每個骰子對應(yīng)一個主題,K個骰子對應(yīng)之前的K個主題妇穴,且骰子的每一面對應(yīng)要選擇的詞項爬虱,V個面對應(yīng)著V個可選的詞)。

    比如可令K=3腾它,即制作1個含有3個主題的“文檔-主題”骰子跑筝,這3個主題可以是:教育、經(jīng)濟携狭、交通继蜡。然后令V = 3,制作3個有著3面的“主題-詞項”骰子逛腿,其中稀并,教育主題骰子的3個面上的詞可以是:大學、老師单默、課程碘举,經(jīng)濟主題骰子的3個面上的詞可以是:市場、企業(yè)搁廓、金融引颈,交通主題骰子的3個面上的詞可以是:高鐵耕皮、汽車、飛機蝙场。

    image

    二凌停、每寫一個詞,先扔該“文檔-主題”骰子選擇主題售滤,得到主題的結(jié)果后罚拟,使用和主題結(jié)果對應(yīng)的那顆“主題-詞項”骰子,扔該骰子選擇要寫的詞完箩。

    先扔“文檔-主題”的骰子赐俗,假設(shè)(以一定的概率)得到的主題是教育,所以下一步便是扔教育主題篩子弊知,(以一定的概率)得到教育主題篩子對應(yīng)的某個詞:大學阻逮。

    上面這個投骰子產(chǎn)生詞的過程簡化下便是:“先以一定的概率選取主題,再以一定的概率選取詞”秩彤。

    三叔扼、最后,你不停的重復扔“文檔-主題”骰子和”主題-詞項“骰子漫雷,重復N次(產(chǎn)生N個詞)币励,完成一篇文檔,重復這產(chǎn)生一篇文檔的方法M次珊拼,則完成M篇文檔食呻。

    上述過程抽象出來即是PLSA的文檔生成模型。在這個過程中澎现,我們并未關(guān)注詞和詞之間的出現(xiàn)順序仅胞,所以pLSA是一種詞袋方法。生成文檔的整個過程便是選定文檔生成主題剑辫,確定主題生成詞干旧。

反過來,既然文檔已經(jīng)產(chǎn)生妹蔽,那么如何根據(jù)已經(jīng)產(chǎn)生好的文檔反推其主題呢椎眯?這個利用看到的文檔推斷其隱藏的主題(分布)的過程(其實也就是產(chǎn)生文檔的逆過程),便是主題建模的目的:自動地發(fā)現(xiàn)文檔集中的主題(分布)胳岂。

文檔d和詞w是我們得到的樣本编整,可觀測得到,所以對于任意一篇文檔乳丰,其 P(w_j|d_i) 是已知的掌测。從而可以根據(jù)大量已知的文檔-詞項信息 P(w_j|d_i),訓練出文檔-主題 P(z_k|d_i) 和主題-詞項 P(w_j|z_k)产园,如下公式所示:

P(w_j|d_i)=\sum_{k=1}^{K}P(w_j|z_k)P(z_k|d_i)

故得到文檔中每個詞的生成概率為:

P(d_i,w_j)=P(d_i)P(w_j|d_i)=P(d_i)\sum_{k=1}^{K}P(w_j|z_k)P(z_k|d_i)

由于 P(d_i) 可事先計算求出汞斧,而 P(w_j|z_k)^{}P(z_k|d_i) 未知夜郁,所以 \theta=(P(w_j|z_k),P(z_k|d_i)) 就是我們要估計的參數(shù)(值),通俗點說粘勒,就是要最大化這個θ竞端。

用什么方法進行估計呢,常用的參數(shù)估計方法有極大似然估計MLE庙睡、最大后驗證估計MAP婶熬、貝葉斯估計等等。因為該待估計的參數(shù)中含有隱變量z埃撵,所以我們可以考慮EM算法。詳細的EM算法可以參考之前寫過的 EM算法 章節(jié)虽另。

1.3 LDA模型

事實上暂刘,理解了pLSA模型,也就差不多快理解了LDA模型捂刺,因為LDA就是在pLSA的基礎(chǔ)上加層貝葉斯框架谣拣,即LDA就是pLSA的貝葉斯版本(正因為LDA被貝葉斯化了,所以才需要考慮歷史先驗知識族展,才加的兩個先驗參數(shù))森缠。

下面,咱們對比下本文開頭所述的LDA模型中一篇文檔生成的方式是怎樣的:

  • 按照先驗概率 P(d_i) 選擇一篇文檔 d_i仪缸。
  • 從狄利克雷分布(即Dirichlet分布)\alpha 中取樣生成文檔 d_i 的主題分布 \theta_i贵涵,換言之,主題分布 \theta_i 由超參數(shù)為 \alpha 的Dirichlet分布生成恰画。
  • 從主題的多項式分布 \theta_i 中取樣生成文檔 d_i 第 j 個詞的主題 z_{i,j}宾茂。
  • 從狄利克雷分布(即Dirichlet分布)\beta 中取樣生成主題 z_{i,j} 對應(yīng)的詞語分布 \phi_{z_{i,j}},換言之拴还,詞語分布 \phi_{z_{i,j}} 由參數(shù)為 \beta 的Dirichlet分布生成跨晴。
  • 從詞語的多項式分布 \phi_{z_{i,j}} 中采樣最終生成詞語 w_{i,j}

LDA中片林,選主題和選詞依然都是兩個隨機的過程端盆,依然可能是先從主題分布{教育:0.5,經(jīng)濟:0.3费封,交通:0.2}中抽取出主題:教育焕妙,然后再從該主題對應(yīng)的詞分布{大學:0.5,老師:0.3弓摘,課程:0.2}中抽取出詞:大學访敌。

那PLSA跟LDA的區(qū)別在于什么地方呢?區(qū)別就在于:

PLSA中衣盾,主題分布和詞分布是唯一確定的寺旺,能明確的指出主題分布可能就是{教育:0.5爷抓,經(jīng)濟:0.3,交通:0.2}阻塑,詞分布可能就是{大學:0.5蓝撇,老師:0.3,課程:0.2}陈莽。
但在LDA中渤昌,主題分布和詞分布不再唯一確定不變,即無法確切給出走搁。例如主題分布可能是{教育:0.5独柑,經(jīng)濟:0.3,交通:0.2}私植,也可能是{教育:0.6忌栅,經(jīng)濟:0.2,交通:0.2}曲稼,到底是哪個我們不再確定(即不知道)索绪,因為它是隨機的可變化的。但再怎么變化贫悄,也依然服從一定的分布瑞驱,即主題分布跟詞分布由Dirichlet先驗隨機確定。正因為LDA是PLSA的貝葉斯版本窄坦,所以主題分布跟詞分布本身由先驗知識隨機給定唤反。

換言之,LDA在pLSA的基礎(chǔ)上給這兩參數(shù) (P(z_k|d_i)鸭津、P(w_j|z_k)) 加了兩個先驗分布的參數(shù)(貝葉斯化):一個主題分布的先驗分布Dirichlet分布 \alpha拴袭,和一個詞語分布的先驗分布Dirichlet分布 \beta

綜上曙博,LDA真的只是pLSA的貝葉斯版本拥刻,文檔生成后,兩者都要根據(jù)文檔去推斷其主題分布和詞語分布(即兩者本質(zhì)都是為了估計給定文檔生成主題父泳,給定主題生成詞語的概率)般哼,只是用的參數(shù)推斷方法不同,在pLSA中用極大似然估計的思想去推斷兩未知的固定參數(shù)惠窄,而LDA則把這兩參數(shù)弄成隨機變量蒸眠,且加入dirichlet先驗。

所以杆融,pLSA跟LDA的本質(zhì)區(qū)別就在于它們?nèi)ス烙嬑粗獏?shù)所采用的思想不同楞卡,前者用的是頻率派思想,后者用的是貝葉斯派思想。

LDA參數(shù)估計:Gibbs采樣蒋腮,詳見文末的參考文獻淘捡。

2. 怎么確定LDA的topic個數(shù)?

  1. 基于經(jīng)驗 主觀判斷池摧、不斷調(diào)試焦除、操作性強、最為常用作彤。
  2. 基于困惑度(主要是比較兩個模型之間的好壞)膘魄。
  3. 使用Log-邊際似然函數(shù)的方法,這種方法也挺常用的竭讳。
  4. 非參數(shù)方法:Teh提出的基于狄利克雷過程的HDP法创葡。
  5. 基于主題之間的相似度:計算主題向量之間的余弦距離,KL距離等绢慢。

3. 如何用主題模型解決推薦系統(tǒng)中的冷啟動問題灿渴?

推薦系統(tǒng)中的冷啟動問題是指在沒有大量用戶數(shù)據(jù)的情況下如何給用戶進行個性化推薦,目的是最優(yōu)化點擊率呐芥、轉(zhuǎn)化率或用戶 體驗(用戶停留時間、留存率等)奋岁。冷啟動問題一般分為用戶冷啟動、物品冷啟動和系統(tǒng)冷啟動三大類。

  • 用戶冷啟動是指對一個之前沒有行為或行為極少的新用戶進行推薦咕幻;
  • 物品冷啟動是指為一個新上市的商品或電影(這時沒有與之相關(guān)的 評分或用戶行為數(shù)據(jù))尋找到具有潛在興趣的用戶线得;
  • 系統(tǒng)冷啟動是指如何為一個 新開發(fā)的網(wǎng)站設(shè)計個性化推薦系統(tǒng)。

解決冷啟動問題的方法一般是基于內(nèi)容的推薦蓝翰。以Hulu的場景為例光绕,對于用 戶冷啟動來說,我們希望根據(jù)用戶的注冊信息(如:年齡畜份、性別诞帐、愛好等)、搜 索關(guān)鍵詞或者合法站外得到的其他信息(例如用戶使用Facebook賬號登錄爆雹,并得 到授權(quán)停蕉,可以得到Facebook中的朋友關(guān)系和評論內(nèi)容)來推測用戶的興趣主題。 得到用戶的興趣主題之后钙态,我們就可以找到與該用戶興趣主題相同的其他用戶慧起, 通過他們的歷史行為來預測用戶感興趣的電影是什么。

同樣地册倒,對于物品冷啟動問題蚓挤,我們也可以根據(jù)電影的導演、演員、類別灿意、關(guān)鍵詞等信息推測該電影所屬于的主題估灿,然后基于主題向量找到相似的電影,并將新電影推薦給以往喜歡看這 些相似電影的用戶脾歧。可以使用主題模型(pLSA甲捏、LDA等)得到用戶和電影的主題。

以用戶為例鞭执,我們將每個用戶看作主題模型中的一篇文檔司顿,用戶對應(yīng)的特征 作為文檔中的單詞,這樣每個用戶可以表示成一袋子特征的形式兄纺。通過主題模型 學習之后大溜,經(jīng)常共同出現(xiàn)的特征將會對應(yīng)同一個主題,同時每個用戶也會相應(yīng)地 得到一個主題分布估脆。每個電影的主題分布也可以用類似的方法得到钦奋。

那么如何解決系統(tǒng)冷啟動問題呢?首先可以得到每個用戶和電影對應(yīng)的主題向量疙赠,除此之外付材,還需要知道用戶主題和電影主題之間的偏好程度,也就是哪些主題的用戶可能喜歡哪些主題的電影圃阳。當系統(tǒng)中沒有任何數(shù)據(jù)時厌衔,我們需要一些先驗知識來指定,并且由于主題的數(shù)目通常比較小捍岳,隨著系統(tǒng)的上線富寿,收集到少量的數(shù)據(jù)之后我們就可以對主題之間的偏好程度得到一個比較準確的估計。

4. 參考文獻

通俗理解LDA主題模型

5. 代碼實現(xiàn)

LDA模型應(yīng)用:一眼看穿希拉里的郵件

機器學習通俗易懂系列文章

3.png

作者:@mantchs

GitHub:https://github.com/NLP-LOVE/ML-NLP

歡迎大家加入討論锣夹!共同完善此項目页徐!群號:【541954936】<a target="_blank" ><img border="0" src="http://pub.idqqimg.com/wpa/images/group.png" alt="NLP面試學習群" title="NLP面試學習群"></a>

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市银萍,隨后出現(xiàn)的幾起案子变勇,更是在濱河造成了極大的恐慌,老刑警劉巖贴唇,帶你破解...
    沈念sama閱讀 216,744評論 6 502
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件贰锁,死亡現(xiàn)場離奇詭異,居然都是意外死亡滤蝠,警方通過查閱死者的電腦和手機豌熄,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,505評論 3 392
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來物咳,“玉大人锣险,你說我怎么就攤上這事蹄皱。” “怎么了芯肤?”我有些...
    開封第一講書人閱讀 163,105評論 0 353
  • 文/不壞的土叔 我叫張陵巷折,是天一觀的道長。 經(jīng)常有香客問我崖咨,道長锻拘,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,242評論 1 292
  • 正文 為了忘掉前任击蹲,我火速辦了婚禮署拟,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘歌豺。我一直安慰自己推穷,他們只是感情好,可當我...
    茶點故事閱讀 67,269評論 6 389
  • 文/花漫 我一把揭開白布类咧。 她就那樣靜靜地躺著馒铃,像睡著了一般。 火紅的嫁衣襯著肌膚如雪痕惋。 梳的紋絲不亂的頭發(fā)上区宇,一...
    開封第一講書人閱讀 51,215評論 1 299
  • 那天,我揣著相機與錄音值戳,去河邊找鬼议谷。 笑死,一個胖子當著我的面吹牛述寡,可吹牛的內(nèi)容都是我干的柿隙。 我是一名探鬼主播叶洞,決...
    沈念sama閱讀 40,096評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼鲫凶,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了衩辟?” 一聲冷哼從身側(cè)響起螟炫,我...
    開封第一講書人閱讀 38,939評論 0 274
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎艺晴,沒想到半個月后昼钻,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,354評論 1 311
  • 正文 獨居荒郊野嶺守林人離奇死亡封寞,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,573評論 2 333
  • 正文 我和宋清朗相戀三年然评,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片狈究。...
    茶點故事閱讀 39,745評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡碗淌,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情亿眠,我是刑警寧澤碎罚,帶...
    沈念sama閱讀 35,448評論 5 344
  • 正文 年R本政府宣布,位于F島的核電站纳像,受9級特大地震影響荆烈,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜竟趾,卻給世界環(huán)境...
    茶點故事閱讀 41,048評論 3 327
  • 文/蒙蒙 一憔购、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧潭兽,春花似錦倦始、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,683評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至账蓉,卻和暖如春枚碗,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背铸本。 一陣腳步聲響...
    開封第一講書人閱讀 32,838評論 1 269
  • 我被黑心中介騙來泰國打工肮雨, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人箱玷。 一個月前我還...
    沈念sama閱讀 47,776評論 2 369
  • 正文 我出身青樓怨规,卻偏偏與公主長得像,于是被迫代替她去往敵國和親锡足。 傳聞我的和親對象是個殘疾皇子波丰,可洞房花燭夜當晚...
    茶點故事閱讀 44,652評論 2 354

推薦閱讀更多精彩內(nèi)容