論文-A Novel Bi-directional Interrelated Model for Joint Intent Detection and Slot Filling(SF-ID Ne...

1. 簡(jiǎn)稱(chēng)

論文《A Novel Bi-directional Interrelated Model for Joint Intent Detection and Slot Filling》,作者Haihong E(Beijing University of Posts and Telecommunications, Beijing, China),簡(jiǎn)稱(chēng)SF-ID Network哥攘,經(jīng)典的NLU論文(Semantic Frame)助琐。

2. 摘要

口語(yǔ)理解(SLU)系統(tǒng)包括兩個(gè)主要任務(wù)率拒,插槽填充(SF)和意圖檢測(cè)(ID)茶敏。這兩個(gè)任務(wù)的聯(lián)合模型正在成為SLU中的一種趨勢(shì)下硕。但是玉工,現(xiàn)有聯(lián)合模型中未建立意圖和插槽之間的雙向關(guān)聯(lián)連接羽资。在本文中,我們提出了一種用于聯(lián)合意圖檢測(cè)和插槽填充的雙向關(guān)聯(lián)模型遵班。我們引入了SF-ID網(wǎng)絡(luò)來(lái)建立兩個(gè)任務(wù)的直接連接屠升,以幫助它們相互促進(jìn)潮改。此外,我們?cè)赟F-ID網(wǎng)絡(luò)內(nèi)部設(shè)計(jì)了一種全新的迭代機(jī)制腹暖,以增強(qiáng)雙向相互關(guān)聯(lián)的連接汇在。實(shí)驗(yàn)結(jié)果表明,與最新模型相比微服,在ATIS和Snips數(shù)據(jù)集上趾疚,我們模型的句子級(jí)語(yǔ)義框架準(zhǔn)確性相對(duì)提高了3.79%和5.42%。

3. 引言

口語(yǔ)理解在口語(yǔ)對(duì)話系統(tǒng)中起著重要作用以蕴。 SLU旨在從用戶話語(yǔ)中提取語(yǔ)義糙麦。具體而言,它可以識(shí)別意圖并捕獲語(yǔ)義成分丛肮。這兩個(gè)任務(wù)分別稱(chēng)為意圖檢測(cè)和時(shí)隙填充(Tur和De Mori赡磅,2011)。例如宝与,表1中顯示了從ATIS語(yǔ)料庫(kù)中抽樣的“what flights leave from phoenix”這句話焚廊。可以看出习劫,該句子中的每個(gè)單詞都對(duì)應(yīng)一個(gè)插槽標(biāo)簽咆瘟,并且為整個(gè)句子分配了特定的意圖。

傳統(tǒng)的管道方法分別管理上述兩個(gè)任務(wù)诽里。目的檢測(cè)被視為預(yù)測(cè)目的標(biāo)簽的語(yǔ)義分類(lèi)問(wèn)題袒餐。支持向量機(jī)(SVM)(Haffner等,2003)和遞歸神經(jīng)網(wǎng)絡(luò)(RNN)(Lai等谤狡,2015)等通用方法都可以應(yīng)用灸眼。建議將插槽填充作為序列標(biāo)記任務(wù)。流行的方法包括條件隨機(jī)場(chǎng)(CRF)(Raymond和Riccardi墓懂,2007)焰宣,長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)(Yao等人,2014)捕仔。

考慮到錯(cuò)誤傳播造成的管道方法性能不盡人意匕积,趨勢(shì)是針對(duì)意圖檢測(cè)和縫隙填充任務(wù)開(kāi)發(fā)聯(lián)合模型(Chen等,2016a榜跌; Zhang和Wang闪唆,2016)。 Liu and Lane(2016)提出了一種基于注意力的RNN模型斜做。但是苞氮,它只是應(yīng)用了聯(lián)合損失函數(shù)來(lái)隱式鏈接兩個(gè)任務(wù)。 Hakkani-Tu?r et al.(2016年)引入了一個(gè)RNN-LSTM模型瓤逼,其中沒(méi)有建立槽和意圖之間的顯式關(guān)系笼吟。 Goo et al.(2018年)提出了一種槽控模型库物,該模型將意圖信息應(yīng)用于槽填充任務(wù)并獲得了卓越的性能。但是在意圖檢測(cè)任務(wù)中不使用插槽信息贷帮。雙向直接連接仍未建立戚揭。實(shí)際上,槽位和意圖是相關(guān)的撵枢,并且兩個(gè)任務(wù)可以相互加強(qiáng)民晒。本文提出了一個(gè)由SF子網(wǎng)和ID子網(wǎng)組成的SF-ID網(wǎng)絡(luò)。 SF子網(wǎng)將意圖信息應(yīng)用于插槽填充任務(wù)锄禽,而ID子網(wǎng)將插槽信息用于意圖檢測(cè)任務(wù)潜必。在這種情況下,可以為兩個(gè)任務(wù)建立雙向的相互關(guān)聯(lián)的連接沃但。我們的貢獻(xiàn)概括如下:

  1. 我們提出一個(gè)SF-ID網(wǎng)絡(luò)磁滚,以建立用于插槽填充和意圖檢測(cè)任務(wù)的相互關(guān)聯(lián)的機(jī)制。特別是宵晚,提出使用新穎的ID子網(wǎng)將插槽信息應(yīng)用于意圖檢測(cè)任務(wù)垂攘。
  2. 我們?cè)赟F-ID網(wǎng)絡(luò)內(nèi)部建立了一種新穎的迭代機(jī)制,以增強(qiáng)意圖和插槽之間的聯(lián)系淤刃。
  3. 在兩個(gè)基準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn)表明了該模型的有效性和優(yōu)越性晒他。

4. 核心

本節(jié)首先介紹我們?nèi)绾瓮ㄟ^(guò)注意機(jī)制獲取插槽上下文和意圖的集成。然后逸贾,它提出了一個(gè)SF-ID網(wǎng)絡(luò)陨仅,該網(wǎng)絡(luò)在意圖和插槽之間建立了直接連接「荩基于雙向LSTM(BLSTM)的模型架構(gòu)如圖2所示掂名。

4.1 Integration of Context(上下文整合)

在SLU中据沈,單詞標(biāo)簽不僅取決于相應(yīng)的術(shù)語(yǔ)哟沫,還取決于上下文(Chen et al. 2016b)。意圖標(biāo)簽也與話語(yǔ)中的每個(gè)元素相關(guān)锌介。為了捕獲這種依賴(lài)嗜诀,引入了注意機(jī)制。

Slot filling:i個(gè)時(shí)隙上下文向量c^i_{slot}是BLSTM隱藏狀態(tài)(h_1孔祸,...隆敢,h_t)的加權(quán)和:

c_{slot}^i=\sum_{j=1}^T\alpha_{i,j}^Sh_j\tag{1}

其中注意力權(quán)重\alpha的獲取方法與(Liu and Lane,2016)中相同崔慧。

Intent detection:意圖上下文向量c^i_{intent}的計(jì)算方法與c_{slot}相同拂蝎,特別是它只為整個(gè)句子生成一個(gè)意圖標(biāo)簽。

4.2 SF-ID Network

SF-ID網(wǎng)絡(luò)由SF子網(wǎng)和ID子網(wǎng)組成惶室。 SF和ID子網(wǎng)的順序可以自定義温自。根據(jù)兩個(gè)子網(wǎng)的順序玄货,模型具有兩種模式:SF-First和ID-First。前一個(gè)子網(wǎng)可以通過(guò)中間向量對(duì)后一個(gè)子網(wǎng)產(chǎn)生積極的影響悼泌。

4.2.1 SF-First Mode

在SF優(yōu)先模式下松捉,首先執(zhí)行SF子網(wǎng)。我們?cè)赟F子網(wǎng)中應(yīng)用了意圖上下文向量c_{intent}和插槽上下文向量c_{slot}馆里,并生成了時(shí)隙增強(qiáng)向量r_{slot}隘世。然后,將新形成的向量r_{slot}饋送到ID子網(wǎng)以帶來(lái)時(shí)隙信息鸠踪。

SF subnet:SF子網(wǎng)在計(jì)算相關(guān)因子f時(shí)應(yīng)用意圖和時(shí)隙信息(即c_{intent}c_{slot})丙者,該因子可以指示意圖和時(shí)隙的關(guān)系。該相關(guān)因子f定義為:

f=\sum V * tanh(c_{slot}^i+W*c_{intent})\tag{2}

另外营密,我們引入由(3)定義的時(shí)隙增強(qiáng)向量r_{slot}蔓钟,并將其饋送到ID子網(wǎng)以帶來(lái)時(shí)隙信息。

r_{slot}^i=f · c_{slot}^i \tag{3}

ID subnet:我們介紹了一個(gè)新穎的ID子網(wǎng)卵贱,該子網(wǎng)將插槽信息應(yīng)用于意圖檢測(cè)任務(wù)滥沫。我們相信,插槽代表單詞級(jí)別的信息键俱,而意圖代表句子級(jí)別兰绣。混合信息可以滿足意圖檢測(cè)任務(wù)的要求编振。插槽增強(qiáng)向量r_{slot}被饋送到ID子網(wǎng)以生成增強(qiáng)向量r缀辩,其定義如下:

r=\sum_{i=1}^T\alpha_i · r_{slot}^i\tag{4}

r^i_{slot}的權(quán)重\alpha_i計(jì)算為:

\alpha_i=\frac{exp(e_{i,i})}{\sum_{j=1}^Texp(e_{i,j})}\tag{5}
e_{i,j}=W*tanh(V_1*r_{slot}^i+V_2*h_j+b)\tag{6}

我們還介紹了一種意圖增強(qiáng)向量r_{intent},它是根據(jù)增強(qiáng)向量r和意圖上下文向量c_{intent}之和計(jì)算得出的踪央。

r_{intent}=r+c_{intent}\tag{7}

Iteration Mechanism:意向增強(qiáng)向量r_{intent}也可以饋入SF子網(wǎng)臀玄。實(shí)際上,此意圖增強(qiáng)向量r_{intent}可以改善關(guān)系因子f的效果畅蹂,因?yàn)樗鈭D和廣告位的混合信息健无,并且(2)可以替換為:

f=\sum V*tanh(c_{slot}^i+W*r_{intent})\tag{8}

隨著關(guān)系因子f的變化,獲得了新的時(shí)隙增強(qiáng)矢量r_{slot}液斜。因此累贤,ID子網(wǎng)可以使用新的r_{slot}并導(dǎo)出新的r_{intent}。在這種情況下,SF子網(wǎng)和ID子網(wǎng)都將更新,一次迭代完成危尿。

從理論上講,SF子網(wǎng)和ID子網(wǎng)之間的交互可以無(wú)限地重復(fù)渗磅,這在我們的模型中被稱(chēng)為迭代機(jī)制。意向和時(shí)隙增強(qiáng)向量充當(dāng)SF子網(wǎng)和ID子網(wǎng)之間的鏈接,并且它們的值在迭代過(guò)程中不斷變化始鱼。

在迭代機(jī)制之后论巍,r_{intent}r_{slot}分別參與intent和slot的最終預(yù)測(cè)。對(duì)于意圖檢測(cè)任務(wù)风响,在最終意圖預(yù)測(cè)中利用了BLSTM的意圖增強(qiáng)矢量r_{intent}和最后一個(gè)隱藏狀態(tài)h_T

y_{intent}=softmax(W_{intent}^{hy}concat(h_T,r_{intent}))\tag{9}

對(duì)于插槽填充任務(wù)嘉汰,隱藏狀態(tài)h_i與相應(yīng)的插槽增強(qiáng)向量綁定,在第i個(gè)時(shí)隙標(biāo)簽預(yù)測(cè)中使用r_{slot}^i状勤。插槽沒(méi)有CRF層的最終表達(dá)式是:

y_{slot}^i=softmax(W_{slot}^{hy}concat(h_i,r_{slot}^i))\tag{10}

4.2.2 ID-First Mode

在ID優(yōu)先模式下鞋怀,ID子網(wǎng)先于SF子網(wǎng)執(zhí)行。在這種情況下持搜,第一次迭代中ID子網(wǎng)的計(jì)算存在一些差異密似。

ID subnet:與Slot-First模式不同,增強(qiáng)向量r由BLSTM的隱藏狀態(tài)和上下文向量獲取葫盼。因此残腌,(4)(5)(6)可以替換為:

r=\sum_{i=1}^T\alpha_i·h_i\tag{11}
\alpha_i=\frac{exp(e_{i,i})}{\sum_{j=1}^Texp(e_{i,j})}\tag{12}
e_{i,j}=W*\sigma(V_1*h_i+V_2*c_{slot}^j+b)\tag{13}

意圖增強(qiáng)向量r_{intent}仍然由(7)定義,并將其饋送到SF子網(wǎng)贫导。

SF subnet:意向增強(qiáng)向量rinte被饋送到SF子網(wǎng)抛猫,并且關(guān)系因子f的計(jì)算方法與(8)相同。其他算法詳細(xì)信息與SF-First模式相同孩灯。

Iteration Mechanism:除了兩個(gè)子網(wǎng)的順序外闺金,ID-First模式下的迭代機(jī)制與SF-First模式下的迭代機(jī)制幾乎相同。

4.2.3 CRF layer

插槽填充本質(zhì)上是一個(gè)序列標(biāo)記問(wèn)題峰档。對(duì)于序列標(biāo)記任務(wù)败匹,考慮鄰域中標(biāo)記之間的相關(guān)性是有益的。因此讥巡,我們?cè)赟F子網(wǎng)輸出上方添加CRF層掀亩,以聯(lián)合解碼話語(yǔ)標(biāo)簽的最佳鏈。

5. 實(shí)驗(yàn)

Dataset:我們使用兩個(gè)公共數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)欢顷,即廣泛使用的ATIS數(shù)據(jù)集(Hemphill et al. 1990年)和被稱(chēng)為Snips(Coucke et al. 2018年)的自定義意圖引擎數(shù)據(jù)集槽棍,該數(shù)據(jù)集是由Snips個(gè)人語(yǔ)音助理收集的。與ATIS數(shù)據(jù)集相比吱涉,Snips數(shù)據(jù)集詞匯量大刹泄、跨域意圖復(fù)雜外里。

Evaluation Metrics:我們實(shí)驗(yàn)中使用三個(gè)評(píng)估指標(biāo)怎爵。對(duì)于插槽填充任務(wù),將應(yīng)用F1分?jǐn)?shù)盅蝗。對(duì)于意圖檢測(cè)任務(wù)鳖链,要利用準(zhǔn)確性。此外,句子級(jí)別的語(yǔ)義框架準(zhǔn)確性(句子準(zhǔn)確性)用于指示這兩項(xiàng)任務(wù)的總體性能芙委,這是指整個(gè)語(yǔ)料庫(kù)中其插槽和意圖均得到正確預(yù)測(cè)的句子所占的比例逞敷。

Training Details:在我們的實(shí)驗(yàn)中,BLSTM網(wǎng)絡(luò)的層大小設(shè)置為64灌侣。在訓(xùn)練過(guò)程中推捐,應(yīng)用了Adam優(yōu)化算法(Kingma and Ba,2014)侧啼。此外牛柒,學(xué)習(xí)率以\eta_t=\eta_0/(1 + pt)更新,衰減率為p = 0.05痊乾,初始學(xué)習(xí)率為\eta_0= 0.01皮壁,t表示完成的步數(shù)。

Model Performance:表2給出了模型的性能哪审,其中可以看出蛾魄,我們的模型在所有三個(gè)方面都優(yōu)于基線:槽位填充(F1),意圖檢測(cè)(Acc)和句子準(zhǔn)確性(Acc)湿滓。特別是滴须,在句子級(jí)語(yǔ)義框架結(jié)果上,ATIS和Snips的相對(duì)改進(jìn)分別約為3.79%和5.42%叽奥,表明SF-ID網(wǎng)絡(luò)可以通過(guò)引入槽和意圖的雙向關(guān)聯(lián)機(jī)制顯著提高SLU性能描馅。

Analysis of Seperate Subnets:我們分析了單獨(dú)子網(wǎng)的影響,得到的結(jié)果如表3所示而线。實(shí)驗(yàn)是在增加CRF層的情況下進(jìn)行的铭污。可以看出膀篮,僅包括SF子網(wǎng)和ID子網(wǎng)的兩種模型都比BLSTM模型獲得了更好的結(jié)果嘹狞。因此,我們認(rèn)為SF子網(wǎng)和ID子網(wǎng)在性能提升方面都有重要意義誓竿。

此外磅网,我們還分析了SF和ID子網(wǎng)獨(dú)立的情況,即SF和ID子網(wǎng)沒(méi)有交互的情況筷屡。我們可以看到涧偷,它也取得了很好的效果。但是毙死,SF-ID網(wǎng)絡(luò)允許兩個(gè)子網(wǎng)進(jìn)行交互燎潮,取得了更好的效果。這是因?yàn)?code>雙向關(guān)聯(lián)機(jī)制有助于兩個(gè)子網(wǎng)相互促進(jìn)扼倘,從而提高了兩個(gè)任務(wù)的性能确封。

Analysis of Model Mode:在表2中,可以看出ID-First模式在插槽填充任務(wù)中實(shí)現(xiàn)了更好的性能。這是因?yàn)镮D-First模式將時(shí)隙填充任務(wù)視為更重要的任務(wù)爪喘,因?yàn)镾F子網(wǎng)可以利用從ID子網(wǎng)輸出的意圖信息颜曾。同樣,SF-First模式在意圖檢測(cè)任務(wù)中表現(xiàn)更好秉剑。通常泛豪,兩種模式之間的差異很小。

Iteration Mechanism:迭代機(jī)制的效果如圖3所示侦鹏。實(shí)驗(yàn)以SF-First模式進(jìn)行候址。句子準(zhǔn)確性被應(yīng)用為性能度量,因?yàn)樗梢苑从晨傮w模型性能种柑。當(dāng)ATIS和Snips數(shù)據(jù)集上的迭代次數(shù)均為3時(shí)岗仑,它會(huì)逐漸增加并達(dá)到最大值,表明有效的交互機(jī)制的重要性聚请。它可以歸功于迭代機(jī)制荠雕,它可以增強(qiáng)意圖和槽之間的連接。之后驶赏,句子的準(zhǔn)確度逐漸降低炸卑,而下降幅度很小∶喊總而言之盖文,具有適當(dāng)?shù)螖?shù)的迭代機(jī)制可以使SLU性能受益。

CRF Layer:從表2中可以看出蚯姆,CRF層對(duì)總體模型性能具有積極影響五续。這是因?yàn)镃RF層可以在句子級(jí)別獲得最大可能的標(biāo)簽序列。但是龄恋,CRF層主要關(guān)注序列標(biāo)記問(wèn)題疙驾。因此,插槽填充任務(wù)的改進(jìn)顯然超過(guò)了意圖檢測(cè)任務(wù)的改進(jìn)郭毕。通常它碎,通過(guò)CRF層可以提高性能。

我們提出了一種新穎的SF-ID網(wǎng)絡(luò)显押,該網(wǎng)絡(luò)為意圖檢測(cè)和時(shí)隙填充任務(wù)提供了雙向相互關(guān)聯(lián)的機(jī)制扳肛。并提出了一種迭代機(jī)制來(lái)增強(qiáng)意圖和槽之間的相互聯(lián)系。雙向相互關(guān)聯(lián)的模型可幫助兩個(gè)任務(wù)相互促進(jìn)乘碑。

6. 重點(diǎn)論文

  • Yun-Nung Chen, Dilek Hakkani-Tu ?r, Go ?khan Tu ?r, Jianfeng Gao, and Li Deng. 2016b. End-to-end memory networks with knowledge carryover for multi-turn spoken language understanding. In IN- TERSPEECH, pages 3245–3249.
  • Dilek Hakkani-Tu ?r, Go ?khan Tu ?r, Asli Celikyilmaz, Yun-Nung Chen, Jianfeng Gao, Li Deng, and Ye- Yi Wang. 2016. Multi-domain joint semantic frame parsing using bi-directional rnn-lstm. In Inter- speech, pages 715–719.
  • Bing Liu and Ian Lane. 2016. Attention-based recurrent neural network models for joint intent detection and slot filling. arXiv preprint arXiv:1609.01454.
  • Kaisheng Yao, Baolin Peng, Yu Zhang, Dong Yu, Ge- offrey Zweig, and Yangyang Shi. 2014. Spoken language understanding using long short-term memory neural networks. In Spoken Language Technology Workshop (SLT), 2014 IEEE, pages 189–194. IEEE.
  • Xiaodong Zhang and Houfeng Wang. 2016. A joint model of intent determination and slot filling for spoken language understanding. In IJCAI, pages 2993–2999.

7. 代碼編寫(xiě)

本文源碼地址:https://github.com/ZephyrChenzf/SF-ID-Network-For-NLU

# 后續(xù)追加代碼分析

參考文獻(xiàn)

  1. E, H., Niu, P., Chen, Z., & Song, M. (2019). A Novel Bi-directional Interrelated Model for Joint Intent Detection and Slot Filling. ACL.
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末挖息,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子蝉仇,更是在濱河造成了極大的恐慌旋讹,老刑警劉巖殖蚕,帶你破解...
    沈念sama閱讀 212,383評(píng)論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件轿衔,死亡現(xiàn)場(chǎng)離奇詭異沉迹,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)害驹,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,522評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門(mén)鞭呕,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人宛官,你說(shuō)我怎么就攤上這事葫松。” “怎么了底洗?”我有些...
    開(kāi)封第一講書(shū)人閱讀 157,852評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵腋么,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我亥揖,道長(zhǎng)珊擂,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 56,621評(píng)論 1 284
  • 正文 為了忘掉前任费变,我火速辦了婚禮摧扇,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘挚歧。我一直安慰自己扛稽,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,741評(píng)論 6 386
  • 文/花漫 我一把揭開(kāi)白布滑负。 她就那樣靜靜地躺著在张,像睡著了一般。 火紅的嫁衣襯著肌膚如雪矮慕。 梳的紋絲不亂的頭發(fā)上瞧掺,一...
    開(kāi)封第一講書(shū)人閱讀 49,929評(píng)論 1 290
  • 那天,我揣著相機(jī)與錄音凡傅,去河邊找鬼辟狈。 笑死,一個(gè)胖子當(dāng)著我的面吹牛夏跷,可吹牛的內(nèi)容都是我干的哼转。 我是一名探鬼主播,決...
    沈念sama閱讀 39,076評(píng)論 3 410
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼槽华,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼壹蔓!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起猫态,我...
    開(kāi)封第一講書(shū)人閱讀 37,803評(píng)論 0 268
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤佣蓉,失蹤者是張志新(化名)和其女友劉穎披摄,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體勇凭,經(jīng)...
    沈念sama閱讀 44,265評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡疚膊,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,582評(píng)論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了虾标。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片寓盗。...
    茶點(diǎn)故事閱讀 38,716評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖璧函,靈堂內(nèi)的尸體忽然破棺而出傀蚌,到底是詐尸還是另有隱情,我是刑警寧澤蘸吓,帶...
    沈念sama閱讀 34,395評(píng)論 4 333
  • 正文 年R本政府宣布善炫,位于F島的核電站,受9級(jí)特大地震影響库继,放射性物質(zhì)發(fā)生泄漏箩艺。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 40,039評(píng)論 3 316
  • 文/蒙蒙 一制跟、第九天 我趴在偏房一處隱蔽的房頂上張望舅桩。 院中可真熱鬧,春花似錦雨膨、人聲如沸擂涛。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,798評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)撒妈。三九已至,卻和暖如春排监,著一層夾襖步出監(jiān)牢的瞬間狰右,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,027評(píng)論 1 266
  • 我被黑心中介騙來(lái)泰國(guó)打工舆床, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留棋蚌,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,488評(píng)論 2 361
  • 正文 我出身青樓挨队,卻偏偏與公主長(zhǎng)得像谷暮,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子盛垦,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,612評(píng)論 2 350

推薦閱讀更多精彩內(nèi)容