25 Embedding Layers

本篇介紹的內容主要用于NLP(Nature Language Process, 自然語言處理)。Deep Learning 算法已經在圖像和音頻領域取得了驚人的成果,但是在 NLP 領域中尚未見到如此激動人心的結果,但就目前而言,Deep Learning 在 NLP 領域中的研究已經將高深莫測的人類語言撕開了一層神秘的面紗惭每。本篇內容主要就是用來做詞向量的映射與訓練。

一亏栈、Embedding

keras.layers.embeddings.Embedding(input_dim,output_dim, init='uniform', input_length=None, weights=None, W_regularizer=None, W_constraint=None, mask_zero=False)  

將正整數(shù)轉換為固定size的denses向量台腥。比如[[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
** input shape: 2維tensor宏赘,shape為(nb_samples,sequence_length)
** output shape
: 3維tensor,shape為(nb_samples,sequence_length, output_dim)黎侈。
** 參數(shù)**:

input_dim : int>=0察署。Size of the vocabulary, ie.1+maximum integer index occuring in the input data
output_dim: int >= 0. Dimension ofthe dense embedding.
init: 初始化權值的函數(shù)名稱或Theano function【海可以使用Keras內置的(內置初始化權值函數(shù)見這里)箕母,也可以傳遞自己編寫的Theano function。如果不給weights傳遞參數(shù)時俱济,則該參數(shù)必須指明。
weights: 用于初始化權值的numpy arrays組成的list钙勃。這個List至少有1個元素蛛碌,shape為(input_dim, output_dim)
W_regularizer:權值的規(guī)則化項,必須傳入一個WeightRegularizer的實例(比如L1或L2規(guī)則化項辖源,詳細的內置規(guī)則化見這里)蔚携。
mask_zero: Whether or not the input value0 is a special "padding" value that should be masked out. This isuseful for recurrent layers which may take variable length input. If this isTrue then all subsequent layers in the model need to support masking or anexception will be raised.
input_length: Length of input sequences, whenit is constant. This argument is required if you are going to connect Flattenthen Dense layers upstream (without it, the shape of the dense outputs cannotbe computed).

二、WordContextProduct

keras.layers.embeddings.WordContextProduct(input_dim,proj_dim=128,  
        init='uniform', activation='sigmoid', weights=None)  

這個層主要是把一對word轉換為兩個向量克饶。This layer turns a pair ofwords (a pivot word + a context word, ie. a word from the same context as apivot, or a random, out-of-context word), indentified by their indices in avocabulary, into two dense reprensentations (word representation and contextrepresentation).
Then it returnsactivation(dot(pivot_embedding, context_embedding)), which can be trained toencode the probability of finding the context word in the context of the pivotword (or reciprocally depending on your training procedure).
更多信息可以看這里:Efficient Estimation of Wordreprensentations in Vector Space
** inputshape: 2維tensor酝蜒,shape為(nb_samples, 2)
** outputshape
: 2維tensor,shape為(nb_samples, 1)矾湃。
** 參數(shù)**:

input_dim : int>=0亡脑。Size of the vocabulary, ie.1+maximum integer index occuring in the input data
proj_dim: int >= 0. Dimension ofthe dense embedding used internally.
init: 初始化權值的函數(shù)名稱或Theano function⊙荆可以使用Keras內置的(內置初始化權值函數(shù)見這里)霉咨,也可以傳遞自己編寫的Theano function。如果不給weights傳遞參數(shù)時拍屑,則該參數(shù)必須指明途戒。
activation : 激活函數(shù)名稱或者Theano function〗┏郏可以使用Keras內置的(內置激活函數(shù)見這里)喷斋,也可以是傳遞自己編寫的Theano function。如果不明確指定蒜茴,那么將沒有激活函數(shù)會被應用星爪。
weights: 用于初始化權值的numpy arrays組成的list。這個List要有2個元素矮男,shape為(input_dim, proj_dim)移必。The first element is the wordembedding weights, the second one is the context embedding weights.

原文地址

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市毡鉴,隨后出現(xiàn)的幾起案子崔泵,更是在濱河造成了極大的恐慌秒赤,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,948評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件憎瘸,死亡現(xiàn)場離奇詭異入篮,居然都是意外死亡,警方通過查閱死者的電腦和手機幌甘,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,371評論 3 385
  • 文/潘曉璐 我一進店門潮售,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人锅风,你說我怎么就攤上這事酥诽。” “怎么了皱埠?”我有些...
    開封第一講書人閱讀 157,490評論 0 348
  • 文/不壞的土叔 我叫張陵肮帐,是天一觀的道長。 經常有香客問我边器,道長训枢,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,521評論 1 284
  • 正文 為了忘掉前任忘巧,我火速辦了婚禮恒界,結果婚禮上,老公的妹妹穿的比我還像新娘砚嘴。我一直安慰自己十酣,他們只是感情好,可當我...
    茶點故事閱讀 65,627評論 6 386
  • 文/花漫 我一把揭開白布枣宫。 她就那樣靜靜地躺著婆誓,像睡著了一般。 火紅的嫁衣襯著肌膚如雪也颤。 梳的紋絲不亂的頭發(fā)上洋幻,一...
    開封第一講書人閱讀 49,842評論 1 290
  • 那天,我揣著相機與錄音翅娶,去河邊找鬼文留。 笑死,一個胖子當著我的面吹牛竭沫,可吹牛的內容都是我干的燥翅。 我是一名探鬼主播,決...
    沈念sama閱讀 38,997評論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼蜕提,長吁一口氣:“原來是場噩夢啊……” “哼森书!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 37,741評論 0 268
  • 序言:老撾萬榮一對情侶失蹤凛膏,失蹤者是張志新(化名)和其女友劉穎杨名,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體猖毫,經...
    沈念sama閱讀 44,203評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡台谍,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 36,534評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了吁断。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片趁蕊。...
    茶點故事閱讀 38,673評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖仔役,靈堂內的尸體忽然破棺而出掷伙,到底是詐尸還是另有隱情,我是刑警寧澤又兵,帶...
    沈念sama閱讀 34,339評論 4 330
  • 正文 年R本政府宣布炎咖,位于F島的核電站,受9級特大地震影響寒波,放射性物質發(fā)生泄漏。R本人自食惡果不足惜升熊,卻給世界環(huán)境...
    茶點故事閱讀 39,955評論 3 313
  • 文/蒙蒙 一俄烁、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧级野,春花似錦页屠、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,770評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至况鸣,卻和暖如春牢贸,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背镐捧。 一陣腳步聲響...
    開封第一講書人閱讀 32,000評論 1 266
  • 我被黑心中介騙來泰國打工潜索, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人懂酱。 一個月前我還...
    沈念sama閱讀 46,394評論 2 360
  • 正文 我出身青樓竹习,卻偏偏與公主長得像,于是被迫代替她去往敵國和親列牺。 傳聞我的和親對象是個殘疾皇子整陌,可洞房花燭夜當晚...
    茶點故事閱讀 43,562評論 2 349

推薦閱讀更多精彩內容