BERT模型

BERT框架

BERT有兩部分:pre-training和fine-tuning捎谨。在pre-training階段濒生,會(huì)在沒有標(biāo)注數(shù)據(jù)且不同預(yù)訓(xùn)練任務(wù)上訓(xùn)練模型商源;在fine-tuning階段寂诱,BERT會(huì)根據(jù)預(yù)訓(xùn)練模型的參數(shù)初始化癣缅,然后在下游任務(wù)的標(biāo)注數(shù)據(jù)進(jìn)行fine-tuned栈戳。

BERT是一個(gè)多層雙向的transformer encoder模型岂傲。是的,BERT中的transformer只有encoder子檀,沒有decoderD饕础!命锄!

BERT模型

模型輸入輸出表示

BERT模型中使用的是WordPiece embeddings堰乔,最后一層隱藏層的向量會(huì)作為每個(gè)token的表示。另外脐恩,有3個(gè)特殊字符如下:

  • [CLS]:用于分類任務(wù)中每個(gè)序列的第一個(gè)token
  • [SEP]:作為句子對(duì)(A镐侯,B)的分割符,句子首尾都有,具體可看輸入輸出表示部分苟翻。
  • [MASK]:用于masked ML中word的替換


    輸入輸出表示

還需要說明的是韵卤,BERT模型中sentence并不是語義層面的句子,可以是連續(xù)的文本崇猫。sequence指的是token 序列沈条,可以是單個(gè)sentence也可以是合在一起的 two sentences。

部分小疑問
  1. 輸入不管有幾個(gè)sentence诅炉,總和的maxlength是固定的蜡歹,與其他訓(xùn)練任務(wù)一樣
  2. segment可以有多種(可以大于2,只是比較少見)涕烧,如果只有一種那么Segment embedding只有一個(gè)E_A

預(yù)訓(xùn)練(pre-training)BERT

相比之前的預(yù)訓(xùn)練模型月而,BERT在預(yù)訓(xùn)練階段做了兩個(gè)無監(jiān)督任務(wù):MLM(masked LM)和next sentence prediction(NSP)。

通過源碼能看到:

  • MLM和NSP任務(wù)的輸入都是一樣的议纯,即輸入中都會(huì)有masked token
  • 在masked LM任務(wù)中只會(huì)預(yù)測(cè)masked token父款,其他token不做預(yù)測(cè)。
  • 由于是多任務(wù)學(xué)習(xí)瞻凤,最終的loss = loss_{MLM} + loss_{NSP}
Task1: MLM

我沒明白為什么傳統(tǒng)模型無法雙向訓(xùn)練憨攒,而用masked LM可以解決雙向訓(xùn)練的問題:

Unfortunately, standard conditional language models can only be trained left-to-right or right-to-left, since bidirec- tional conditioning would allow each word to in- directly “see itself”, and the model could trivially predict the target word in a multi-layered context.

文章的解釋是:

從圖中可以看到經(jīng)過兩層的雙向操作,每個(gè)位置上的輸出就已經(jīng)帶有了原本這個(gè)位置上的詞的信息了阀参。這樣的“窺探”會(huì)導(dǎo)致模型預(yù)測(cè)詞的任務(wù)變得失去意義肝集,因?yàn)槟P鸵呀?jīng)看到每個(gè)位置上是什么詞了。ref: 《Semi-supervised sequence tagging with bidirectional language models》.

masked LM的做法:

  • 隨機(jī)選擇一定比例的token隨機(jī)masked结笨,然后再預(yù)測(cè)這些token包晰。這個(gè)比例作者選的是15%,另外文中提到“In contrast to denoising auto-encoders (Vincent et al., 2008), we only predict the masked words rather than recon- structing the entire input.”
  • 因?yàn)閇MASK] token不出現(xiàn)在fine-tuning階段炕吸,因此在pre-training階段伐憾,對(duì)mask做了點(diǎn)其他處理:如果某個(gè)token被選擇mask,那么80%的情況是被替換成[MASK]赫模,10%的情況是被隨機(jī)替換成其他token树肃,10%保持原token不替換。

在masked LM任務(wù)中只會(huì)預(yù)測(cè)masked token瀑罗,其他token不做預(yù)測(cè)胸嘴。

Task2: NSP

有一些任務(wù)比如問答(QA)和自然語言推理(NLI)都是對(duì)兩句話關(guān)系的理解,但是語言模型無法捕捉這種信息斩祭。為了讓訓(xùn)練的模型能獲取句子之間的關(guān)系劣像,在預(yù)訓(xùn)練的時(shí)候多加了一個(gè)二值化的NSP任務(wù)。具體做法:

  • 對(duì)每一個(gè)訓(xùn)練樣本(A摧玫,B)對(duì)耳奕,50%用真實(shí)的(A,B)對(duì)被標(biāo)注為IsNext,50%用錯(cuò)誤的(A屋群,B')對(duì)標(biāo)注為NotNext闸婴,其中B'隨機(jī)來自于語料。
  • 目標(biāo)函數(shù)與 Jernite et al. (2017) and (Logeswaran and Lee (2018))[] 比較相近芍躏。

對(duì)這部分我的疑問是:

  • 如果不是QA和NLI類的任務(wù)邪乍,那BERT是不是只有MLM任務(wù)?

Fine-tuning BERT

原文中不理解的地方:

For applications involving text pairs, a common pattern is to independently encode text pairs be- fore applying bidirectional cross attention, such as Parikh et al. (2016); Seo et al. (2017). BERT instead uses the self-attention mechanism to unify these two stages, as encoding a concatenated text pair with self-attention effectively includes bidi- rectional cross attention between two sentences.

學(xué)習(xí)資料

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市否纬,隨后出現(xiàn)的幾起案子姐刁,更是在濱河造成了極大的恐慌,老刑警劉巖烦味,帶你破解...
    沈念sama閱讀 219,589評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異壁拉,居然都是意外死亡谬俄,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,615評(píng)論 3 396
  • 文/潘曉璐 我一進(jìn)店門弃理,熙熙樓的掌柜王于貴愁眉苦臉地迎上來溃论,“玉大人,你說我怎么就攤上這事痘昌≡垦” “怎么了?”我有些...
    開封第一講書人閱讀 165,933評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵辆苔,是天一觀的道長(zhǎng)算灸。 經(jīng)常有香客問我,道長(zhǎng)驻啤,這世上最難降的妖魔是什么菲驴? 我笑而不...
    開封第一講書人閱讀 58,976評(píng)論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮骑冗,結(jié)果婚禮上赊瞬,老公的妹妹穿的比我還像新娘。我一直安慰自己贼涩,他們只是感情好巧涧,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,999評(píng)論 6 393
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著遥倦,像睡著了一般谤绳。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,775評(píng)論 1 307
  • 那天闷供,我揣著相機(jī)與錄音烟央,去河邊找鬼。 笑死歪脏,一個(gè)胖子當(dāng)著我的面吹牛疑俭,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播婿失,決...
    沈念sama閱讀 40,474評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼钞艇,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了豪硅?” 一聲冷哼從身側(cè)響起哩照,我...
    開封第一講書人閱讀 39,359評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎懒浮,沒想到半個(gè)月后飘弧,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,854評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡砚著,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,007評(píng)論 3 338
  • 正文 我和宋清朗相戀三年次伶,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片稽穆。...
    茶點(diǎn)故事閱讀 40,146評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡冠王,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出舌镶,到底是詐尸還是另有隱情柱彻,我是刑警寧澤,帶...
    沈念sama閱讀 35,826評(píng)論 5 346
  • 正文 年R本政府宣布餐胀,位于F島的核電站哟楷,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏否灾。R本人自食惡果不足惜吓蘑,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,484評(píng)論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望坟冲。 院中可真熱鬧磨镶,春花似錦、人聲如沸健提。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,029評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽私痹。三九已至脐嫂,卻和暖如春统刮,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背账千。 一陣腳步聲響...
    開封第一講書人閱讀 33,153評(píng)論 1 272
  • 我被黑心中介騙來泰國打工侥蒙, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人匀奏。 一個(gè)月前我還...
    沈念sama閱讀 48,420評(píng)論 3 373
  • 正文 我出身青樓鞭衩,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國和親娃善。 傳聞我的和親對(duì)象是個(gè)殘疾皇子论衍,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,107評(píng)論 2 356

推薦閱讀更多精彩內(nèi)容