2017 Gated Self-Matching Networks for Reading Comprehension and Question Answering

2017 Gated Self-Matching Networks for Reading Comprehension and Question Answering[1]

摘要

在本文中枉阵,作者提出用于閱讀理解類(lèi)型問(wèn)答的門(mén)控自匹配網(wǎng)絡(luò) (the gated self-matching networks) 毕荐,目的是從一段給定的文章 (passage) 中進(jìn)行問(wèn)題回答。作者先使用基于注意力機(jī)制的門(mén)控循環(huán)神經(jīng)網(wǎng)絡(luò) (gated attention-based recurrent networks) 對(duì)問(wèn)題和文章進(jìn)行匹配沧竟,來(lái)獲取經(jīng)過(guò)問(wèn)題注意后的文章表示 (question-aware passage representation) 碗殷。然后咧七,作者提出一種自匹配注意力機(jī)制 (self-matching attention mechanism) 递宅,通過(guò)文章與自身進(jìn)行匹配來(lái)精煉文章表示抹镊,它能夠有效地根據(jù)整個(gè)文章來(lái)進(jìn)行信息編碼锉屈。最后,作者使用了指針網(wǎng)絡(luò) (the pointer networks) 從文章中定位答案的位置髓考。他們?cè)?SQuAD 數(shù)據(jù)集上進(jìn)行了大量的實(shí)驗(yàn)部念。單模型在隱藏狀態(tài)的測(cè)試集上弃酌,其評(píng)估指標(biāo)的精確匹配達(dá)到 71.3% 氨菇,集成模型進(jìn)一步提高結(jié)果到 75.9% 。在這篇文章提交時(shí)妓湘,他們的模型在 SQuAD 的排名榜上排名第一查蓉。

他人的工作,作者受到的啟發(fā)

自 SQuAD 數(shù)據(jù)集發(fā)布以來(lái)榜贴,在該數(shù)據(jù)集上已經(jīng)取得了快速進(jìn)展豌研。

  • Wang and Jiang(2016)[3] 使用 match-LSTM[2] 建立經(jīng)過(guò)問(wèn)題注意的文章表示 (question-aware passage representation)
  • inyals et al.(2015)[4] 使用 pointer networks 在文章中預(yù)測(cè)答案的范圍
  • Seo et al. (2016)[5] 提出雙向注意力流網(wǎng)絡(luò) (bi-directional attention flow networks) 在多層次粒度 (multiple levels of granularity) 上進(jìn)行問(wèn)題-文章對(duì) (question-passage pairs) 建模
  • Xiong et al. (2016)[6] 提出動(dòng)態(tài)互注意力網(wǎng)絡(luò) (dynamic co-attention network) ,在該網(wǎng)絡(luò)中問(wèn)題和文章同時(shí)參與唬党,并通過(guò)迭代改善答案預(yù)測(cè) (iteratively refine answer predictions)

作者的模型是受到 Wang and Jiang[3] 的啟發(fā)鹃共。
作者的模型可以分為四個(gè)部分:

  1. 使用循環(huán)神經(jīng)網(wǎng)絡(luò)分別對(duì)問(wèn)題和文章進(jìn)行編碼,建立問(wèn)題表示 (question representation) 和文章表示 (passage representation) 驶拱。
  2. 使用門(mén)控匹配層 (the gated matching layer) 對(duì)問(wèn)題和文章進(jìn)行匹配霜浴。
  3. 自匹配層 (the self-matching layer) 用于對(duì)整個(gè)文章進(jìn)行信息集成 (information aggregation) 。
  4. 基于 the pointer network 的答案范圍預(yù)測(cè)層蓝纲。

為什么要使用 gated attention-based recurrent network

作者提出一個(gè)基于注意力的門(mén)控循環(huán)神經(jīng)網(wǎng)絡(luò) (a gated attention-based recurrent network) 阴孟,其在基于注意力機(jī)制的循環(huán)神經(jīng)網(wǎng)絡(luò)上增加了一個(gè)額外的門(mén) (an additional gate) 。
使用該結(jié)構(gòu)的原因在于:在閱讀理解和問(wèn)題回答任務(wù)中税迷,對(duì)于回答特定的問(wèn)題永丝,文章中的詞擁有不同程度的重要性 (different importance) 。
通過(guò)引進(jìn)一個(gè)門(mén)控機(jī)制 (a gating mechanism) 箭养,作者的基于注意力的門(mén)控循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)與問(wèn)題的相關(guān)程度給文章各部分賦予不同程度的權(quán)重慕嚷,遮掩 (masking out) 文章的無(wú)關(guān)部分和強(qiáng)調(diào)重要的部分。

為什么要使用 self-matching mechanism

作者提出一種自匹配機(jī)制 (self-matching mechanism) ,該機(jī)制可以有效地從整個(gè)文章 (the whole passage) 中集成信息 (aggregate evidence) 來(lái)進(jìn)行答案推理喝检。
在經(jīng)過(guò)一個(gè)門(mén)控匹配層 (a gated matching layer) 后砂心,產(chǎn)生基于問(wèn)題注意的文章表示 (question-aware passage representation) 有效地結(jié)合問(wèn)題信息對(duì)文章中的每個(gè)詞進(jìn)行編碼。 但是蛇耀,循環(huán)神經(jīng)網(wǎng)絡(luò)雖然具有推理能力辩诞,但在實(shí)際使用中只能記憶文章中有限長(zhǎng)度的上下文。因此纺涤,一個(gè)候選答案經(jīng)常沒(méi)有注意到在文章其他部分的線(xiàn)索译暂。
為了解決上述問(wèn)題,作者提出一個(gè)自匹配層撩炊,結(jié)合整個(gè)文章的信息外永,動(dòng)態(tài)精煉文章表示 (dynamically refine passage representation) ∨】龋基于 問(wèn)題注意的文章表示伯顶,作者在文章自身【這里是 問(wèn)題注意的文章表示 】應(yīng)用了基于注意力的門(mén)控循環(huán)神經(jīng)網(wǎng)絡(luò) (gated attention-based recurrent networks) ,根據(jù)文章中的每個(gè)詞與文章當(dāng)前單詞的關(guān)聯(lián)進(jìn)行信息集成骆膝。

模型結(jié)構(gòu)

  1. Question and Passage Encoder
    作者先把問(wèn)題和文章中的單詞轉(zhuǎn)化為 詞層次的嵌入向量(word-level embeddings) 和 字母層次的嵌入向量(character-level embeddings) 祭衩。
    字母層次的嵌入向量 是單詞中每個(gè)字母的嵌入向量按順序通過(guò)一個(gè)雙向循環(huán)神經(jīng)網(wǎng)絡(luò)后產(chǎn)生的最終隱含層狀態(tài)≡那【這個(gè)操作可以學(xué)習(xí)掐暮、借鑒】。
    作者認(rèn)為使用字母層次的嵌入向量的好處是:有助于處理一些未登錄詞 (out-of-vocab(OOV))政钟。
    接著路克,作者對(duì)問(wèn)題和文章的全部詞使用一個(gè)雙向 RNN 來(lái)產(chǎn)生新的表示 u_1^Q, ..., u_m^Qu_1^P, ..., u_n^P ,具體實(shí)現(xiàn)公式如下:
    u_t^Q = {\rm BiRNN}_Q(u_{t-1}^Q, [e_t^Q, c_t^Q])
    u_t^P = {\rm BiRNN}_P(u_{t-1}^P, [e_t^P, c_t^P])
    在作者的實(shí)驗(yàn)中养交,他們選擇使用了 GRU 精算。

  2. Gated Attention-based Recurrent Networks
    作者提出 基于注意力的門(mén)控循環(huán)網(wǎng)絡(luò) 是為了將問(wèn)題信息融合到文章表示中。這是基于注意力循環(huán)網(wǎng)絡(luò)的一個(gè)變種碎连,通過(guò)一個(gè)外加的門(mén)來(lái)決定文章中的信息對(duì)于一個(gè)問(wèn)題的重要程度灰羽。
    給定問(wèn)題表示 \{u_t^Q\}_{t=1}^m 和 文章表示 \{u_t^P\}_{t=1}^n :

    • Rockt¨aschel et al. (2015)[7] 提出通過(guò)在問(wèn)題和文章中進(jìn)行詞的軟對(duì)齊 (soft-alignment) ,從而產(chǎn)生句子對(duì)表示 (sentence-pair representation) \{v_t^P\}_{t=1}^n 破花,具體實(shí)現(xiàn)公式如下:
      v_t^P = {\rm RNN}(v_{t-1}^P, c_t)
      其中 c_t = att(u^Q, [u_t^P, v_{t-1}^P]) 是一個(gè)對(duì)整個(gè)問(wèn)題信息 (whole question (u^Q)) 的注意力池化向量谦趣,其具體計(jì)算公式如下:
      s_j^t = v^{\mathsf{T}}{\rm tanh}(W_u^Qu_j^Q + W_u^Pu_t^P + W_v^Pv_{t-1}^P)
      a_i^t = {\rm exp}(s_i^t) / \sum_{j=1}^m{\rm exp}(s_j^t)
      c_t = \sum_{i=1}^ma_i^tu_i^Q
      從上面的公式可以看出, c_t 是通過(guò)對(duì)每個(gè) u_i^Q 進(jìn)行加權(quán)求和 (作者稱(chēng)之為注意力池化 attention-pooling ) 得到的座每。
      因此前鹅,每個(gè)文章表示 v_t^P 動(dòng)態(tài)地整合 (incorporate) 整個(gè)問(wèn)題的聚合匹配信息 (aggregated matching information)。
    • Wang and Jiang (2016)[2] 提出 match-LSTM峭梳,它將 u_t^P 作為循環(huán)網(wǎng)絡(luò)的外加輸入舰绘,具體實(shí)現(xiàn)公式如下:
      v_t^P = {\rm RNN}(v_{t-1}^P, [u_t^P, c_t])

    為了決定文章中的重要部分和關(guān)注與問(wèn)題相關(guān)的部分蹂喻,作者在 RNN 的輸入 ([u_t^P, c_t]) 添加了一個(gè)額外的門(mén),具體實(shí)現(xiàn)公式如下:
    g_t = {\rm sigmoid}(W_g[u_t^P, c_t])
    {[u_t^P, c_t]}^* = g_t \odot [u_t^P, c_t]
    從上面的公式可以看出捂寿,通過(guò)一個(gè)兩層的神經(jīng)網(wǎng)絡(luò)來(lái)計(jì)算 [u_t^P, c_t] 的得分 g_t 口四,再使用 g_t 對(duì) [u_t^P, c_t] 進(jìn)行加權(quán) 。 【這種做法秦陋,可以學(xué)習(xí)借鑒】
    不同于 LSTM 和 GRU 的門(mén)蔓彩,外加的門(mén)是基于當(dāng)前的文章單詞和對(duì)應(yīng)問(wèn)題的注意力池化向量,它可以專(zhuān)注于問(wèn)題和當(dāng)前文章單詞的關(guān)系驳概。

  3. Self-Matching Attention
    通過(guò) 基于注意力門(mén)控循環(huán)網(wǎng)絡(luò) 后赤嚼,得到 question-aware passage representation \{v_t^P\}_{t=1}^n
    但是 \{v_t^P\}_{t=1}^n 存在一個(gè)問(wèn)題:它只有非常局限的上下文知識(shí) (very limited knowledge of context) 顺又。一個(gè)候選答案經(jīng)常忽略上下文窗口 (surrounding window) 外部的文章線(xiàn)索更卒。此外,在 SQuAD 數(shù)據(jù)集的大部分樣本中稚照,問(wèn)題和文章之間存在某些詞匯 (lexical) 或者語(yǔ)法 (syntactic) 的差異蹂空。因此,文章上下文對(duì)于推理答案來(lái)說(shuō)是十分重要的果录。
    為了解決這個(gè)問(wèn)題上枕,作者提出直接讓 question-aware passage representation 與 自己進(jìn)行匹配。它可以動(dòng)態(tài)地針對(duì)文章的當(dāng)前單詞從整個(gè)文章中收集信息 (evidence) 雕憔,并將其 (evidence) 與 文章當(dāng)前單詞 和 它匹配的問(wèn)題信息 編碼成新的表示 h_t^P 姿骏,具體實(shí)現(xiàn)公式如下:
    h_t^P = {\rm BiRNN}(h_{t-1}^P, [v_t^P, c_t])
    其中 c_t = att(v^P, v_t^P) 是對(duì)整個(gè)文章 (whole passage v^P) 進(jìn)行注意力池化的向量糖声。 具體實(shí)現(xiàn)公式如下:
    s_j^t = {\rm v^{\mathsf{T}}tanh}(W_v^Pv_j^P + W_v^{\tilde{P}}v_t^P)
    a_i^t = {\rm exp}(s_i^t)/\sum_{j=1}^n{\rm exp}(s_j^t)
    c_t = \sum_{i=1}^na_i^tv_i^P
    【 Todo: 這個(gè)是自己對(duì)自己進(jìn)行基于 attention 的 RNN 編碼 =斤彼。= 可以學(xué)習(xí)這個(gè)操作。試著使用 keras 實(shí)現(xiàn)這種 RNN 】

  4. Output Layer
    作者在該層中模仿[3] 使用 the pointer networks[4] 來(lái)預(yù)測(cè)答案的起點(diǎn)和終點(diǎn)蘸泻。 此外琉苇,作者在問(wèn)題表示上使用注意力池化,生成一個(gè)用于初始化 the pointer network 的隱藏層向量悦施。
    給定文章表示 \{h_t^P\}_{t=1}^n 并扇,注意力機(jī)制被用作指針從文章中選擇答案的起始位置 (p^1) 和 終止位置 (p^2) ,具體實(shí)現(xiàn)公式如下:
    s_j^t = {\rm v^{\mathsf{T}}tanh}(W_h^P h_j^P + W_h^a h_{t-1}^a)
    a_i^t = {\rm exp}(s_i^t)/\sum_{j=1}^n {\rm exp}(s_j^t)
    p^t = {\rm arg max}(a_1^t, ..., a_n^t)
    公式中的 h_{t-1}^a 表示答案循環(huán)網(wǎng)絡(luò) (pointer network) 的上一次 (t-1) 的隱藏層狀態(tài)抡诞。 答案循環(huán)網(wǎng)絡(luò)的輸入是基于當(dāng)前概率 (a^t) 的注意力池化向量:
    c_t = \sum_{i=1}^n a_i^t h_i^P
    h_t^a = {\rm RNN}(h_{t-1}^a, c_t)
    在預(yù)測(cè)起始位置穷蛹, h_{t-1}^a 表示答案循環(huán)網(wǎng)絡(luò)的初始預(yù)測(cè)層狀態(tài)。作者利用問(wèn)題向量 r^Q 用于初始化昼汗。
    r^Q = att(u^Q, V_r^Q) 是一個(gè)基于可訓(xùn)練參數(shù) V_r^Q 的問(wèn)題注意力池化向量肴熏。具體實(shí)現(xiàn)公式如下:
    s_j = {\rm v^{\mathsf{T}} tanh}(W_u^Qu_j^Q + W_v^QV_r^Q)
    a_i = {\rm exp}(s_i)/\sum_{j=1}^m{\rm exp}(s_j)
    r^Q = \sum_{i=1}^ma_iu_i^Q
    【這波操作可以學(xué)下, 使用一個(gè)可訓(xùn)練的參數(shù) V_r^Q 結(jié)合 concat attention 來(lái)對(duì)問(wèn)題進(jìn)行 attention 顷窒, 這個(gè) r^Q 貌似 基于詞的多注意力機(jī)制那篇文章 用到了】

模型結(jié)果圖

實(shí)驗(yàn)設(shè)置細(xì)節(jié)

  • 使用斯坦福的 CoreNLP 分詞器來(lái)預(yù)處理每個(gè)文章和問(wèn)題
  • 使用 LSTM 的變種 the Gated Recurrent Unit (GRU)
  • 使用 GloVe 預(yù)訓(xùn)練詞向量
  • 使用零向量表示未登錄詞
  • 使用單層的雙向 GRU 來(lái)計(jì)算字母層次的嵌入向量
  • 使用3層的雙向 GRU 來(lái)對(duì)問(wèn)題和文章進(jìn)行編碼
  • the gated attention-base recurrent network 也是使用雙向 GRU 蛙吏, 可能是單層的 GRU
  • 各層的隱藏層向量長(zhǎng)度都是75
  • 計(jì)算注意力分?jǐn)?shù)的隱藏層向量長(zhǎng)度也是 75
  • 各層之間使用 dropout ,dropout 大小為 0.2
  • 模型使用 AdaDelta 進(jìn)行優(yōu)化,起始學(xué)習(xí)率為 1鸦做, AdaDelta 中 \rho=0.95 励烦, \epsilon = 1e^{-6}

實(shí)驗(yàn)結(jié)果

Reference

  1. Wang W, Yang N, Wei F, et al. Gated self-matching networks for reading comprehension and question answering[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2017, 1: 189-198.
  2. ShuohangWang and Jing Jiang. Learning natural language inference with LSTM. In NAACL HLT 2016, The 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, San Diego California, USA, June 12-17, 2016.
  3. Shuohang Wang and Jing Jiang. 2016b. Machine comprehension using match-lstm and answer pointer. arXiv preprint arXiv:1608.07905 .
  4. Oriol Vinyals, Meire Fortunato, and Navdeep Jaitly. 2015. Pointer networks. In Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015, December 7-12, 2015, Montreal, Quebec, Canada. pages 2692–2700.
  5. Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, and Hannaneh Hajishirzi. 2016. Bidirectional attention flow for machine comprehension. arXiv preprint arXiv:1611.01603 .
  6. Caiming Xiong, Victor Zhong, and Richard Socher. 2016. Dynamic coattention networks for question answering. arXiv preprint arXiv:1611.01604 .
  7. Tim Rockt¨aschel, Edward Grefenstette, Karl Moritz Hermann, Tom′as Kocisk′y, and Phil Blunsom. 2015. Reasoning about entailment with neural attention. CoRR .
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市泼诱,隨后出現(xiàn)的幾起案子坛掠,更是在濱河造成了極大的恐慌,老刑警劉巖治筒,帶你破解...
    沈念sama閱讀 222,104評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件却音,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡矢炼,警方通過(guò)查閱死者的電腦和手機(jī)系瓢,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,816評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)句灌,“玉大人夷陋,你說(shuō)我怎么就攤上這事∫刃浚” “怎么了骗绕?”我有些...
    開(kāi)封第一講書(shū)人閱讀 168,697評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)资昧。 經(jīng)常有香客問(wèn)我酬土,道長(zhǎng),這世上最難降的妖魔是什么格带? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 59,836評(píng)論 1 298
  • 正文 為了忘掉前任撤缴,我火速辦了婚禮,結(jié)果婚禮上叽唱,老公的妹妹穿的比我還像新娘屈呕。我一直安慰自己,他們只是感情好棺亭,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,851評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布虎眨。 她就那樣靜靜地躺著,像睡著了一般镶摘。 火紅的嫁衣襯著肌膚如雪嗽桩。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 52,441評(píng)論 1 310
  • 那天凄敢,我揣著相機(jī)與錄音碌冶,去河邊找鬼。 笑死贡未,一個(gè)胖子當(dāng)著我的面吹牛种樱,可吹牛的內(nèi)容都是我干的蒙袍。 我是一名探鬼主播,決...
    沈念sama閱讀 40,992評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼嫩挤,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼害幅!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起岂昭,我...
    開(kāi)封第一講書(shū)人閱讀 39,899評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤以现,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后约啊,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體邑遏,經(jīng)...
    沈念sama閱讀 46,457評(píng)論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,529評(píng)論 3 341
  • 正文 我和宋清朗相戀三年恰矩,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了记盒。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,664評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡外傅,死狀恐怖纪吮,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情萎胰,我是刑警寧澤碾盟,帶...
    沈念sama閱讀 36,346評(píng)論 5 350
  • 正文 年R本政府宣布,位于F島的核電站技竟,受9級(jí)特大地震影響冰肴,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜榔组,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,025評(píng)論 3 334
  • 文/蒙蒙 一熙尉、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧瓷患,春花似錦骡尽、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,511評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)箫踩。三九已至爱态,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間境钟,已是汗流浹背锦担。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,611評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留慨削,地道東北人洞渔。 一個(gè)月前我還...
    沈念sama閱讀 49,081評(píng)論 3 377
  • 正文 我出身青樓套媚,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親磁椒。 傳聞我的和親對(duì)象是個(gè)殘疾皇子堤瘤,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,675評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容

  • ??????????????????????????????? ?????????????????????????...
    Quzhala閱讀 204評(píng)論 0 0
  • 影之詩(shī)玩家的日常 今天想跟各位影子詩(shī)玩家推介一套卡組,挑費(fèi)龍浆熔!相信很多玩影子詩(shī)的玩家都知道本辐,龍族玩家...
    CL星贖閱讀 224評(píng)論 0 0
  • 堅(jiān)守自由 不愿盲從
    bear家的馴鹿大人閱讀 279評(píng)論 0 0
  • 沙箱:環(huán)境,黑盒,在一個(gè)虛擬的環(huán)境中模擬真實(shí)世界,做實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果和真實(shí)世界的結(jié)果是一樣,但是不會(huì)影響真實(shí)世界。 ...
    東邪_黃藥師閱讀 1,658評(píng)論 0 0