《Attention is All You Need》細節(jié)討論

Transformer架構(gòu) (出自原文)

《Attention is All You need》是NLP的經(jīng)典論文之一。網(wǎng)上對其科普的文章很多了(參考本文reference)允粤,本文對其中對一些細節(jié)及其Tensorflow代碼實現(xiàn)進行了討論剃袍。

問題

Masked self-attention 什么意思浦马?

Masked的意思就是只能在做self-attention的時候看不到這個詞以后的單詞。因為要用當前的輸出來預測未來的詞订雾,如果能看到未來的詞相當于系統(tǒng)作弊。

為什么使用Multi-Head?

不同的head可以學到不同的特征矛洞,

為什么使用殘差洼哎?

使用殘差以后,公式變成了:
F(x) + x
這樣在反向傳播中沼本,對x求偏導數(shù)對時候噩峦,就多了一個常數(shù)。解決了梯度消失的問題抽兆。

Layer normalization?

Positional Encoding有什么作用识补?

在單獨做self-attention的時候,由于attention的計算公式?jīng)]有考慮句子中的單詞順序辫红,所以需要在單詞的向量中加入位置信息的編碼凭涂。本文采用位置編碼和embedding相加的方式進行運算祝辣。
具體的思路就是使用以下公式:

\text{PE}(pos,2i)=sin\left(\frac{pos}{10000^{2i/d_{model}}}\right),

\text{PE}(pos,2i+1)=cos\left(\frac{pos}{10000^{2i/d_{model}}}\right).

其中pos表示在句子中的位置,i表示在詞向量中的位置导盅,d_{model}是詞向量的維度较幌。

舉個例子(出自Link):
假設(shè)我們的embedding是e_wd_{model}=4那么我們獲得的結(jié)果就是:

\begin{align*}e_{w}'= e_{w} + \left[sin\left(\frac{pos}{10000^{0}}\right), cos\left(\frac{pos}{10000^{0}}\right),sin\left(\frac{pos}{10000^{2/4}}\right),cos\left(\frac{pos}{10000^{2/4}}\right)\right]\\ =e_{w} + \left[sin\left(pos\right), cos\left(pos\right),sin\left(\frac{pos}{100}\right),cos\left(\frac{pos}{100}\right)\right]\\ \end{align*}

Self-attention計算為什么要除以\sqrt{d_k}白翻?

self-attention計算公式如下:
(Q,K,V) = softmax(\frac{QK^T}{\sqrt{d_k}} )V
除以\sqrt{d_k}的原因是防止在QK計算乘積的時候數(shù)值過大造成上溢出乍炉。我們都知道softmax函數(shù)在x越大的時候越接近與1。不同數(shù)之間計算的結(jié)果差異就會變小滤馍。除以\sqrt{d_k}可以幫助解決這個問題岛琼。

Self-attention和Context-attention的區(qū)別?

Attention和Self-attention 的區(qū)別巢株?

  • Attention計算的是輸出序列隱藏狀態(tài)和每個輸入隱藏狀態(tài)之間的關(guān)系
  • Self-attention計算的是每個輸入和輸入序列之間的關(guān)系

Transormer 并行計算槐瑞, 哪些步驟是可以并行的?

Encoder和Decoder的連接方式

Transormer優(yōu)勢阁苞?

  • 傳統(tǒng)的RNN每一步的輸出都依賴前面的輸出困檩,難以并行;并且預處理的時候需要處理成相同長度的句子那槽。雖然LSTM中引入了forget gate的概念悼沿,但是只能記住最近的幾個輸入,對于長句子效果不好骚灸。解決了LSTM和RNN的長距離依賴的問題糟趾。
  • CNN可以并行計算,但是不能處理變長的句子問題甚牲。
  • Transformer在計算self-attention的時候就是矩陣的相乘义郑,可以進行并行。并且計算了單詞之間的關(guān)系丈钙,更容易學習到句子中的依賴關(guān)系非驮。

Transformer 缺點:

Transformer非常強大,但是還是有很多的缺點雏赦。

作者:l1n3x
鏈接:http://www.reibang.com/p/bccb409a146f
來源:簡書
簡書著作權(quán)歸作者所有劫笙,任何形式的轉(zhuǎn)載都請聯(lián)系作者獲得授權(quán)并注明出處。

Reference:

-[GIF 動畫展示]
(http://jalammar.github.io/illustrated-transformer/)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末喉誊,一起剝皮案震驚了整個濱河市邀摆,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌伍茄,老刑警劉巖栋盹,帶你破解...
    沈念sama閱讀 216,402評論 6 499
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異敷矫,居然都是意外死亡例获,警方通過查閱死者的電腦和手機汉额,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,377評論 3 392
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來榨汤,“玉大人蠕搜,你說我怎么就攤上這事∈蘸荆” “怎么了妓灌?”我有些...
    開封第一講書人閱讀 162,483評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長蜜宪。 經(jīng)常有香客問我虫埂,道長,這世上最難降的妖魔是什么圃验? 我笑而不...
    開封第一講書人閱讀 58,165評論 1 292
  • 正文 為了忘掉前任掉伏,我火速辦了婚禮,結(jié)果婚禮上澳窑,老公的妹妹穿的比我還像新娘斧散。我一直安慰自己,他們只是感情好摊聋,可當我...
    茶點故事閱讀 67,176評論 6 388
  • 文/花漫 我一把揭開白布鸡捐。 她就那樣靜靜地躺著,像睡著了一般栗精。 火紅的嫁衣襯著肌膚如雪闯参。 梳的紋絲不亂的頭發(fā)上瞻鹏,一...
    開封第一講書人閱讀 51,146評論 1 297
  • 那天悲立,我揣著相機與錄音,去河邊找鬼新博。 笑死薪夕,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的赫悄。 我是一名探鬼主播原献,決...
    沈念sama閱讀 40,032評論 3 417
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼埂淮!你這毒婦竟也來了姑隅?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 38,896評論 0 274
  • 序言:老撾萬榮一對情侶失蹤倔撞,失蹤者是張志新(化名)和其女友劉穎讲仰,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體痪蝇,經(jīng)...
    沈念sama閱讀 45,311評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡鄙陡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,536評論 2 332
  • 正文 我和宋清朗相戀三年冕房,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片趁矾。...
    茶點故事閱讀 39,696評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡耙册,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出毫捣,到底是詐尸還是另有隱情详拙,我是刑警寧澤,帶...
    沈念sama閱讀 35,413評論 5 343
  • 正文 年R本政府宣布蔓同,位于F島的核電站溪厘,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏牌柄。R本人自食惡果不足惜畸悬,卻給世界環(huán)境...
    茶點故事閱讀 41,008評論 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望珊佣。 院中可真熱鬧蹋宦,春花似錦、人聲如沸咒锻。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,659評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽惑艇。三九已至蒿辙,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間滨巴,已是汗流浹背思灌。 一陣腳步聲響...
    開封第一講書人閱讀 32,815評論 1 269
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留恭取,地道東北人泰偿。 一個月前我還...
    沈念sama閱讀 47,698評論 2 368
  • 正文 我出身青樓,卻偏偏與公主長得像蜈垮,于是被迫代替她去往敵國和親耗跛。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 44,592評論 2 353

推薦閱讀更多精彩內(nèi)容