TensorFlow訓(xùn)練詞向量

參考: https://www.tensorflow.org/tutorials/word2vec

官網(wǎng)的這個教程主要講word2vec的skip-gram模型橘蜜,沒有講CBOW,并且訓(xùn)練用的負(fù)采樣雷激,沒有用層次softmax。

動機(jī)

動機(jī)其實(shí)就是分布式假說:

在相同上下文中的詞有相似語義(words that appear in the same contexts share semantic meaning)

根據(jù)分布式假說表示詞的方法分為兩類:

  • count-based methods (e.g. Latent Semantic Analysis)
  • predictive methods (e.g. neural probabilistic language models)

預(yù)測方法的代表就是Word2Vec模型,有兩種:

  • Continuous Bag-of-Words model (CBOW)
  • Skip-Gram model

CBOW 從上下文預(yù)測目標(biāo)詞,skip-gram正好相反溜哮,從目標(biāo)詞預(yù)測上下文中的詞。

CBOW在許多分布式信息上進(jìn)行平滑(將整個上下文作為一種情況)色解,大多數(shù)情況下這個模型在小一點(diǎn)的數(shù)據(jù)集上更有效茬射。可是冒签,skip-gram將每一對context-target詞作為一種新的情況,在大一點(diǎn)的數(shù)據(jù)集上的會有更好效果钟病。

噪聲對比訓(xùn)練

神經(jīng)概率語言模型通常用最大似然估計(jì)來訓(xùn)練萧恕,即最大化給定輸入h(歷史信息,前n-1個詞)肠阱,輸出下一個詞wt的概率票唆,使用softmax函數(shù),取log后就是我們想要的準(zhǔn)則函數(shù)屹徘,叫作log-likelihood走趋。這個值的計(jì)算代價(jià)非常高,因?yàn)?strong>softmax的分母要計(jì)算整個詞表的得分噪伊。

訓(xùn)練數(shù)據(jù)的構(gòu)造方法則為:對于每一個ngram片段簿煌,前n-1個詞為構(gòu)成輸入數(shù)據(jù)(詞向量拼接),第n個詞構(gòu)成輸出類標(biāo)鉴吹。由于輸出是一個softmax層姨伟,則對應(yīng)詞表大小個輸出,如果模型訓(xùn)練ok的話豆励,那么這里的第n個詞對應(yīng)的位置輸出概率應(yīng)該最大夺荒。

在word2vec中,不再需要計(jì)算整個詞表每個詞的得分。CBOW和skip-gram模型的核心是訓(xùn)練一個二元分類器技扼,將目標(biāo)詞從k個構(gòu)造的noise words區(qū)分出來伍玖。CBOW的模型圖如下,skip-gram類似只是反過來剿吻。

此時(shí)目標(biāo)函數(shù)就變?yōu)樵诋?dāng)前上下文h下窍箍,目標(biāo)詞為1的概率log值,加上k個噪聲詞為0的概率log值的期望和橙。在實(shí)踐中仔燕,我們從噪聲分布中采樣k個詞來近似計(jì)算期望。

這個目標(biāo)可以看做是計(jì)算一個最優(yōu)模型魔招,這個模型賦予真實(shí)詞高概率晰搀,賦予噪聲詞低概率。學(xué)術(shù)上办斑,這個叫做負(fù)采樣外恕。這個方法使得訓(xùn)練變得非常有效,因?yàn)楝F(xiàn)在計(jì)算損失函數(shù)只需要考慮k個噪聲詞乡翅,而不是整個詞表鳞疲。在TensorFlow中,有一個非常相似的損失函數(shù)tf.nn.nce_loss()蠕蚜。

Skip-gram模型

舉個例子說明訓(xùn)練的過程尚洽。

例子為:

the quick brown fox jumped over the lazy dog

上下文可以是語法詞法等,這里定義為左邊的詞和右邊的詞靶累,窗口大小設(shè)置為1腺毫,則可以得到context-target訓(xùn)練對如下:

([the, brown], quick), ([quick, fox], brown), ([brown, jumped], fox), ...

即通過quick預(yù)測the和brown, 從brown預(yù)測quick和fox挣柬,這樣數(shù)據(jù)集變?yōu)?

(quick, the), (quick, brown), (brown, quick), (brown, fox), ...

目標(biāo)函數(shù)是定義在整個數(shù)據(jù)集上的潮酒,但是實(shí)際訓(xùn)練以minibatch為單位計(jì)算,batch_size一般為16 <= batch_size <= 512邪蛔。

想象一下訓(xùn)練過程急黎,假設(shè)當(dāng)前觀察到上面第一個pair,即(quick, the)侧到,通過quick預(yù)測the勃教,假定num_noise=1,并且通過噪聲分布(一般就是詞的先驗(yàn)分布)采樣選出了噪聲詞sheep匠抗,當(dāng)前目標(biāo)變?yōu)椋?/p>

優(yōu)化的模型參數(shù)是詞向量(embedding vector)荣回,求損失函數(shù)的梯度,沿梯度方向更新這個參數(shù)戈咳。當(dāng)這個過程在整個數(shù)據(jù)集上不斷重復(fù)的時(shí)候心软,每個詞的詞向量就會不斷的“變來變?nèi)ァ焙敬担钡侥P湍軌虺晒Φ膹脑肼曉~中區(qū)分真實(shí)詞。

我們可以通過投影到二維空間來可視化學(xué)習(xí)到的詞向量删铃,用到了t-SNE降維技術(shù)耳贬。

實(shí)戰(zhàn)

有了前面的理論基礎(chǔ),實(shí)現(xiàn)代碼就比較容易了猎唁。

基礎(chǔ)實(shí)現(xiàn):tensorflow/examples/tutorials/word2vec/word2vec_basic.py

訓(xùn)練數(shù)據(jù)中咒劲,輸入是batch_size個target word id構(gòu)成的行向量,類標(biāo)是batch_size個context word id構(gòu)成的列向量:

# Input data.
train_inputs = tf.placeholder(tf.int32, shape=[batch_size])
train_labels = tf.placeholder(tf.int32, shape=[batch_size, 1])

詞向量通過均勻分布初始化诫隅,shape為詞表大小*詞向量維數(shù)腐魂,通過tf.nn.embedding_lookup()查表將輸入轉(zhuǎn)為詞向量形式。

# Look up embeddings for inputs.
embeddings = tf.Variable(
    tf.random_uniform([vocabulary_size, embedding_size], -1.0, 1.0))
embed = tf.nn.embedding_lookup(embeddings, train_inputs)

噪聲對比估計(jì)的損失按照邏輯回歸模型定義逐纬,所以對于每一個詞蛔屹,都要有對應(yīng)的權(quán)向量和偏置,通過截尾正態(tài)分布初始化(只保留兩個標(biāo)準(zhǔn)差以內(nèi)的值)豁生。

# Construct the variables for the NCE loss
nce_weights = tf.Variable(
    tf.truncated_normal([vocabulary_size, embedding_size],
                        stddev=1.0 / math.sqrt(embedding_size)))
nce_biases = tf.Variable(tf.zeros([vocabulary_size]))

計(jì)算每個batch上的平均NCE損失

# Compute the average NCE loss for the batch.
# tf.nce_loss automatically draws a new sample of the negative labels each
# time we evaluate the loss.
loss = tf.reduce_mean(
  tf.nn.nce_loss(weights=nce_weights,
                 biases=nce_biases,
                 labels=train_labels,
                 inputs=embed,
                 num_sampled=num_sampled,
                 num_classes=vocabulary_size))

使用隨機(jī)梯度下降訓(xùn)練

# Construct the SGD optimizer using a learning rate of 1.0.
optimizer = tf.train.GradientDescentOptimizer(1.0).minimize(loss)

最后就是創(chuàng)建session進(jìn)行訓(xùn)練兔毒,詳細(xì)可看完整源代碼。

優(yōu)化

基礎(chǔ)代碼只是實(shí)現(xiàn)了skip-gram的負(fù)采樣模型甸箱,訓(xùn)練目標(biāo)為tf.nn.nce_loss(),還可以試試tf.nn.sampled_softmax_loss()育叁,也可以自己定義。

另外芍殖,讀取數(shù)據(jù)也不是那么有效(單線程)豪嗽,可以試試New Data Formats中的方法自己定義數(shù)據(jù)reader,參考代碼:
word2vec.py.

如果還想進(jìn)一步提升效率豌骏,可以增加新的算子龟梦,參考代碼:word2vec_optimized.py

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市肯适,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌成榜,老刑警劉巖框舔,帶你破解...
    沈念sama閱讀 218,941評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異赎婚,居然都是意外死亡刘绣,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,397評論 3 395
  • 文/潘曉璐 我一進(jìn)店門挣输,熙熙樓的掌柜王于貴愁眉苦臉地迎上來纬凤,“玉大人,你說我怎么就攤上這事撩嚼⊥J浚” “怎么了挖帘?”我有些...
    開封第一講書人閱讀 165,345評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長恋技。 經(jīng)常有香客問我拇舀,道長,這世上最難降的妖魔是什么蜻底? 我笑而不...
    開封第一講書人閱讀 58,851評論 1 295
  • 正文 為了忘掉前任骄崩,我火速辦了婚禮,結(jié)果婚禮上薄辅,老公的妹妹穿的比我還像新娘要拂。我一直安慰自己,他們只是感情好站楚,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,868評論 6 392
  • 文/花漫 我一把揭開白布脱惰。 她就那樣靜靜地躺著,像睡著了一般源请。 火紅的嫁衣襯著肌膚如雪枪芒。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,688評論 1 305
  • 那天谁尸,我揣著相機(jī)與錄音舅踪,去河邊找鬼。 笑死良蛮,一個胖子當(dāng)著我的面吹牛抽碌,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播决瞳,決...
    沈念sama閱讀 40,414評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼货徙,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了皮胡?” 一聲冷哼從身側(cè)響起痴颊,我...
    開封第一講書人閱讀 39,319評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎屡贺,沒想到半個月后蠢棱,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,775評論 1 315
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡甩栈,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,945評論 3 336
  • 正文 我和宋清朗相戀三年泻仙,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片量没。...
    茶點(diǎn)故事閱讀 40,096評論 1 350
  • 序言:一個原本活蹦亂跳的男人離奇死亡玉转,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出殴蹄,到底是詐尸還是另有隱情究抓,我是刑警寧澤猾担,帶...
    沈念sama閱讀 35,789評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站漩蟆,受9級特大地震影響垒探,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜怠李,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,437評論 3 331
  • 文/蒙蒙 一圾叼、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧捺癞,春花似錦夷蚊、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,993評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至唐础,卻和暖如春箱歧,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背一膨。 一陣腳步聲響...
    開封第一講書人閱讀 33,107評論 1 271
  • 我被黑心中介騙來泰國打工呀邢, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人豹绪。 一個月前我還...
    沈念sama閱讀 48,308評論 3 372
  • 正文 我出身青樓价淌,卻偏偏與公主長得像,于是被迫代替她去往敵國和親瞒津。 傳聞我的和親對象是個殘疾皇子蝉衣,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,037評論 2 355

推薦閱讀更多精彩內(nèi)容

  • 1.NLP當(dāng)前熱點(diǎn)方向 詞法/句法分析 詞嵌入(word embedding) 命名實(shí)體識別(Name Entit...
    __Aragorn閱讀 6,030評論 1 9
  • 前面的文章主要從理論的角度介紹了自然語言人機(jī)對話系統(tǒng)所可能涉及到的多個領(lǐng)域的經(jīng)典模型和基礎(chǔ)知識。這篇文章巷蚪,甚至之后...
    我偏笑_NSNirvana閱讀 13,913評論 2 64
  • 在各種大舉深度學(xué)習(xí)大旗的公司中病毡,Google公司無疑是旗舉得最高的,口號喊得最響亮的那一個屁柏。2013年末啦膜,Goog...
    chaaffff閱讀 16,742評論 0 29
  • 最近讀英文繪本比較少。 昨天中午我要求午休前联,但是呢功戚,陳小冠突然發(fā)現(xiàn)這本書娶眷,上午我看來著放在床頭了似嗤。先是自己翻看,然...
    木木sani閱讀 347評論 0 0
  • 吵架届宠,焦慮烁落,焦慮乘粒,吵架,一直翻來覆去伤塌,這么多年灯萍,我的狀態(tài)一直不好,所以一直沒有比較理想的生活確實(shí)和我的狀態(tài)有關(guān)每聪。遇...
    kikin小鑫閱讀 159評論 0 0