BERT

2018年,對(duì)于NLP領(lǐng)域來(lái)說(shuō)是最讓人激動(dòng)的一年柠逞。先后誕生的ELMo套像、GPT、BERT在預(yù)訓(xùn)練語(yǔ)言模型方面的成功給NLP領(lǐng)域的研究帶來(lái)了新的姿勢(shì)乖订。特別是BERT(Bidirectional Encoder Representations from Transformers)扮饶,在11項(xiàng)自然語(yǔ)言任務(wù)上刷新了最好成績(jī),同時(shí)BERT論文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》獲得NLP領(lǐng)域頂會(huì)NAACL 2019的最佳論文獎(jiǎng)乍构。

BERT拋棄了傳統(tǒng)的RNN和CNN甜无,主要結(jié)構(gòu)是多層Transformer,其中Self Attention機(jī)制將任意位置的兩個(gè)詞之間距離轉(zhuǎn)換成1哥遮,有效解決了長(zhǎng)期依賴問(wèn)題岂丘。

原論文中提到兩種不同規(guī)模的BERT:BERTbase 和BERT large。其中眠饮,base版本有12個(gè)隱藏層奥帘,768個(gè)隱層單元,每個(gè)Attention有12個(gè)頭仪召,參數(shù)量達(dá)到110M寨蹋;large版本有24個(gè)隱藏層,1024個(gè)隱藏層扔茅,每個(gè)Attention有16個(gè)頭已旧,參數(shù)量更是達(dá)到了340M。其網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:

1.png

與之前的預(yù)訓(xùn)練模型一樣咖摹,BERT也分兩個(gè)階段: pre-training和fine-tuning评姨。

2.png

pre-training

BERT采用兩種無(wú)監(jiān)督任務(wù)來(lái)做預(yù)訓(xùn)練,一個(gè)是token-level的Masked Language Model萤晴,另一個(gè)是sentence-level的Next sentence Prediction吐句。兩個(gè)任務(wù)同時(shí)進(jìn)行,因此BERT的損失函數(shù)是兩者損失函數(shù)疊加店读。

1嗦枢、Masked Language Model

在說(shuō)MLM之前,我們需要意識(shí)到一個(gè)問(wèn)題屯断。語(yǔ)言模型如果使用雙向的文虏,會(huì)出現(xiàn)數(shù)據(jù)泄露問(wèn)題侣诺。也就是說(shuō),模型可以間接知道要預(yù)測(cè)的詞氧秘。這也是ELMo使用兩個(gè)獨(dú)立的雙向模型的原因年鸳。

MLM的提出正是為了解決這個(gè)問(wèn)題,具體做法是隨機(jī)遮蔽輸入序列中15%的單詞作為訓(xùn)練樣本:

  • 80%用[MASK]代替丸相;
  • 10%用隨機(jī)詞代替搔确;
  • 10%保持不變;

這里只有15%的詞被遮蔽原因是性能開(kāi)銷灭忠,雙向編碼器比單向編碼器訓(xùn)練要慢膳算。只選其中的80%做mask,是因?yàn)閙ask標(biāo)記只存在于預(yù)訓(xùn)練階段弛作,在下游任務(wù)中輸入并沒(méi)有mask涕蜂。10%用隨機(jī)詞,10%保持不變映琳,原因是讓編碼器不知道哪些詞需要預(yù)測(cè)机隙,哪些詞是錯(cuò)誤的,因此被迫需要學(xué)習(xí)每一個(gè)詞的表示向量刊头。

2黍瞧、Next Sentence Prediction

預(yù)訓(xùn)練一個(gè)二分類模型來(lái)學(xué)習(xí)句子之間的關(guān)系,預(yù)測(cè)下一個(gè)句子的方法對(duì)學(xué)習(xí)句子間關(guān)系很有幫助原杂。具體做法:正樣本印颤,給定句子A和B,其中B是A在實(shí)際語(yǔ)境中的下一句穿肄; 負(fù)樣本年局,句子B是語(yǔ)料庫(kù)中隨機(jī)選擇的。通過(guò)兩個(gè)特定的token [CLS]和[SEP]來(lái)串接兩個(gè)句子咸产。 正負(fù)樣本各占一半矢否。

3.png

輸入

BERT的輸入編碼向量(長(zhǎng)度512)是由三個(gè)特征向量疊加的。

4.png
1脑溢、Input Embeddings

每個(gè)輸入序列的第一個(gè)token [CLS]專門用來(lái)分類僵朗,利用此位置的最后輸出作為分類任務(wù)的輸入embedding。在預(yù)訓(xùn)練時(shí)屑彻,[CLS]不參與mask验庙,因而該位置面向整個(gè)序列的所有position做attention,[CLS]位置的輸出足夠表達(dá)整個(gè)句子的信息社牲,類似一個(gè)global feature粪薛。單詞token對(duì)應(yīng)的embedding更關(guān)注該token的語(yǔ)義語(yǔ)法及上下文信息表達(dá),類似一個(gè)local feature搏恤。

2违寿、Position Embeddings

由于transformer無(wú)法獲得字的位置信息湃交,BERT也加入了絕對(duì)位置編碼,但和transformer不同的是:transformer的位置編碼是通過(guò)sin和cos構(gòu)造出來(lái)的藤巢,這里Position Embeddings直接采用類似word embedding的方式直接獲得位置編碼搞莺。

3、Segment Embeddings

在預(yù)訓(xùn)練的句子對(duì)預(yù)測(cè)任務(wù)及問(wèn)答菌瘪、相似匹配等任務(wù)中腮敌,需要對(duì)前后句子做區(qū)分。將句對(duì)輸入同一序列俏扩,以特殊標(biāo)記 [SEP] 分割,同時(shí)對(duì)第一個(gè)句子的每個(gè)token添加Sentence A Embedding弊添;第二個(gè)句子添加Sentence B Embedding录淡,實(shí)驗(yàn)中讓EA=1,EB=0油坝。

Fine-tune

5.png

針對(duì)不同任務(wù)嫉戚,BERT采用不同部分的輸出做預(yù)測(cè)。由上圖可以知道澈圈,BERT有兩種輸出:Pooler output(對(duì)應(yīng)[CLS]位置的輸出)和 Sequence output(對(duì)應(yīng)的是序列中所有詞的最后一層hidden輸出)彬檀。

1、分類/回歸任務(wù)(利用Pooler output)
  • Single sentence Classification tasks瞬女,例如:文本分類窍帝,我想聽(tīng)音樂(lè),分到音樂(lè)這個(gè)domain)诽偷;
  • Sentence Pair Classification tasks坤学,例如:自然語(yǔ)言推斷任務(wù)(NLI),給定前提报慕,推斷假設(shè)是否成立深浮;
  • 回歸任務(wù),回歸其實(shí)是分類的一種特殊形式眠冈,最后輸出的是一個(gè)數(shù)值而不是具體的某個(gè)類別概率飞苇;例如:文本相似度,可以判斷兩個(gè)句子是不是類似蜗顽,得到的具體分?jǐn)?shù)布卡。
2、序列任務(wù)(利用Sequence output)
  • 命名實(shí)體識(shí)別(NER)诫舅;
  • 完形填空(Cloze task)羽利,其實(shí)這就是BERT預(yù)訓(xùn)練的一種任務(wù);
  • SQuAD(Standford Question Answering Dataset)task刊懈,SQuAD任務(wù)輸入是D这弧、Q娃闲,其實(shí)D是該篇文章,Q是問(wèn)題匾浪,返回的結(jié)果是答案開(kāi)始詞的位置s和結(jié)束詞的位置e皇帮;

Experiments

說(shuō)了這么多,我們來(lái)看看當(dāng)初霸榜的BERT與先前的模型對(duì)比成績(jī)到底如何:

6.png

最后

BERT采用Pre-training和Fine-tuning兩階段訓(xùn)練任務(wù)蛋辈,在Pre-training階段使用多層雙向transformer属拾,并采用Masked LM 和 Next Sentence Prediction兩種訓(xùn)練任務(wù)解決token-level和sentence-level問(wèn)題,為下游任務(wù)提供了一個(gè)通用模型框架冷溶。

在NLP領(lǐng)域渐白,BERT具有里程碑意義,對(duì)后續(xù)的研究產(chǎn)生了深遠(yuǎn)影響逞频。

但是我們站在當(dāng)前時(shí)間點(diǎn)回頭看纯衍,BERT自身也存在一些缺點(diǎn),后續(xù)文章中會(huì)介紹到BER的缺點(diǎn)和優(yōu)化苗胀。

參考:

https://arxiv.org/abs/1810.04805

https://zhuanlan.zhihu.com/p/48612853

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末襟诸,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子基协,更是在濱河造成了極大的恐慌歌亲,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,039評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件澜驮,死亡現(xiàn)場(chǎng)離奇詭異陷揪,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)泉唁,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,426評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門鹅龄,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人亭畜,你說(shuō)我怎么就攤上這事扮休。” “怎么了拴鸵?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,417評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵玷坠,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我劲藐,道長(zhǎng)八堡,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,868評(píng)論 1 295
  • 正文 為了忘掉前任聘芜,我火速辦了婚禮兄渺,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘汰现。我一直安慰自己挂谍,他們只是感情好叔壤,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,892評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著口叙,像睡著了一般炼绘。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上妄田,一...
    開(kāi)封第一講書(shū)人閱讀 51,692評(píng)論 1 305
  • 那天俺亮,我揣著相機(jī)與錄音,去河邊找鬼疟呐。 笑死脚曾,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的萨醒。 我是一名探鬼主播斟珊,決...
    沈念sama閱讀 40,416評(píng)論 3 419
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼富纸!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起旨椒,我...
    開(kāi)封第一講書(shū)人閱讀 39,326評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤晓褪,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后综慎,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體涣仿,經(jīng)...
    沈念sama閱讀 45,782評(píng)論 1 316
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,957評(píng)論 3 337
  • 正文 我和宋清朗相戀三年示惊,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了好港。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,102評(píng)論 1 350
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡米罚,死狀恐怖钧汹,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情录择,我是刑警寧澤拔莱,帶...
    沈念sama閱讀 35,790評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站隘竭,受9級(jí)特大地震影響塘秦,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜动看,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,442評(píng)論 3 331
  • 文/蒙蒙 一尊剔、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧菱皆,春花似錦须误、人聲如沸挨稿。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,996評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)叶组。三九已至,卻和暖如春历造,著一層夾襖步出監(jiān)牢的瞬間甩十,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,113評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工吭产, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留侣监,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,332評(píng)論 3 373
  • 正文 我出身青樓臣淤,卻偏偏與公主長(zhǎng)得像橄霉,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子邑蒋,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,044評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容