TensorFlow深度學(xué)習(xí)筆記 文本與序列的深度模型

Deep Models for Text and Sequence

轉(zhuǎn)載請(qǐng)注明作者:夢(mèng)里風(fēng)林
Github工程地址:https://github.com/ahangchen/GDLnotes
歡迎star,有問題可以到Issue區(qū)討論
官方教程地址
視頻/字幕下載

Rare Event

與其他機(jī)器學(xué)習(xí)不同,在文本分析里,陌生的東西(rare event)往往是最重要的舷礼,而最常見的東西往往是最不重要的。

語法多義性

  • 一個(gè)東西可能有多個(gè)名字茶没,對(duì)這種related文本能夠做參數(shù)共享是最好的
  • 需要識(shí)別單詞,還要識(shí)別其關(guān)系晚碾,就需要過量label數(shù)據(jù)

無監(jiān)督學(xué)習(xí)

  • 不用label進(jìn)行訓(xùn)練抓半,訓(xùn)練文本是非常多的,關(guān)鍵是要找到訓(xùn)練的內(nèi)容
  • 遵循這樣一個(gè)思想:相似的詞匯出現(xiàn)在相似的場景中
  • 不需要知道一個(gè)詞真實(shí)的含義格嘁,詞的含義由它所處的歷史環(huán)境決定

Embeddings

  • 將單詞映射到一個(gè)向量(Word2Vec)笛求,越相似的單詞的向量會(huì)越接近
  • 新的詞可以由語境得到共享參數(shù)

Word2Vec

  • 將每個(gè)詞映射到一個(gè)Vector列表(就是一個(gè)Embeddings)里,一開始隨機(jī)讥蔽,用這個(gè)Embedding進(jìn)行預(yù)測(cè)
  • Context即Vector列表里的鄰居
  • 目標(biāo)是讓W(xué)indow里相近的詞放在相鄰的位置涣易,即預(yù)測(cè)一個(gè)詞的鄰居
  • 用來預(yù)測(cè)這些相鄰位置單詞的模型只是一個(gè)Logistics Regression, just a simple Linear model

Comparing embeddings

  • 比較兩個(gè)vector之間的夾角大小來判斷接近程度冶伞,用cos值而非L2計(jì)算新症,因?yàn)関ector的長度和分類是不相關(guān)的:
  • 最好將要計(jì)算的vector都?xì)w一化

Predict Words

  • 單詞經(jīng)過embedding變成一個(gè)vector
  • 然后輸入一個(gè)WX+b,做一個(gè)線性模型
  • 輸出的label概率為輸入文本中的詞匯
  • 問題在于WX+b輸出時(shí)响禽,label太多了徒爹,計(jì)算這種softmax很低效
  • 解決方法是,篩掉不可能是目標(biāo)的label芋类,只計(jì)算某個(gè)label在某個(gè)局部的概率隆嗅,sample softmax

t-SNE

  • 查看某個(gè)詞在embedding里的最近鄰居可以看到單詞間的語義接近關(guān)系
  • 將vector構(gòu)成的空間降維,可以更高效地查找最近單詞侯繁,但降維過程中要保持鄰居關(guān)系(原來接近的降維后還要接近)
  • t-SNE就是這樣一種有效的方法

類比

  • 實(shí)際上我們能得到的不僅是單詞的鄰接關(guān)系胖喳,由于將單詞向量化,可以對(duì)單詞進(jìn)行計(jì)算
  • 可以通過計(jì)算進(jìn)行語義加減贮竟,語法加減

Sequence

文本(Text)是單詞(word)的序列丽焊,一個(gè)關(guān)鍵特點(diǎn)是長度可變,就不能直接變?yōu)関ector

CNN and RNN

CNN 在空間上共享參數(shù)咕别,RNN在時(shí)間上(順序上)共享參數(shù)

  • 在每輪訓(xùn)練中技健,需要判斷至今為之發(fā)生了什么,過去輸入的所有數(shù)據(jù)都對(duì)當(dāng)下的分類造成影響
  • 一種思路是記憶之前的分類器的狀態(tài)惰拱,在這個(gè)基礎(chǔ)上訓(xùn)練新的分類器雌贱,從而結(jié)合歷史影響
  • 這樣需要大量歷史分類器
  • 重用分類器,只用一個(gè)分類器總結(jié)狀態(tài),其他分類器接受對(duì)應(yīng)時(shí)間的訓(xùn)練欣孤,然后傳遞狀態(tài)

RNN Derivatives

  • BackPropagation Through time
  • 對(duì)同一個(gè)weight參數(shù)馋没,會(huì)有許多求導(dǎo)操作同時(shí)更新之
  • 對(duì)SGD不友好,因?yàn)镾GD是用許多不相關(guān)的求導(dǎo)更新參數(shù)导街,以保證訓(xùn)練的穩(wěn)定性
  • 由于梯度之間的相關(guān)性披泪,導(dǎo)致梯度爆炸或者梯度消失
  • 使得訓(xùn)練時(shí)找不到優(yōu)化方向纤子,訓(xùn)練失敗

Clip Gradient

計(jì)算到梯度爆炸的時(shí)候搬瑰,使用一個(gè)比值來代替△W(梯度是回流計(jì)算的,橫坐標(biāo)從右往左看)

  • Hack but cheap and effective

LSTM(Long Short-Term Memory)

梯度消失會(huì)導(dǎo)致分類器只對(duì)最近的消息的變化有反應(yīng)控硼,淡化以前訓(xùn)練的參數(shù)泽论,也不能用比值的方法來解決

  • 一個(gè)RNN的model包含兩個(gè)輸入,一個(gè)是過去狀態(tài)卡乾,一個(gè)是新的數(shù)據(jù)翼悴,兩個(gè)輸出,一個(gè)是預(yù)測(cè)幔妨,一個(gè)是將來狀態(tài)
  • 中間是一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)
  • 將中間的部分換成LSTM-cell就能解決梯度消失問題
  • 我們的目的是提高RNN的記憶能力
  • Memory Cell

三個(gè)門鹦赎,決定是否寫/讀/遺忘/寫回

  • 在每個(gè)門上,不單純做yes/no的判斷误堡,而是使用一個(gè)權(quán)重古话,決定對(duì)輸入的接收程度
  • 這個(gè)權(quán)重是一個(gè)連續(xù)的函數(shù),可以求導(dǎo)锁施,也就可以進(jìn)行訓(xùn)練陪踩,這是LSTM的核心
  • 用一個(gè)邏輯回歸訓(xùn)練這些門,在輸出進(jìn)行歸一化
  • 這樣的模型能讓整個(gè)cell更好地記憶與遺忘
  • 由于整個(gè)模型都是線性的悉抵,所以可以方便地求導(dǎo)和訓(xùn)練

LSTM Regularization

  • L2, works
  • Dropout on the input or output of data, works

Beam Search

有了上面的模型之后肩狂,我們可以根據(jù)上文來推測(cè)下文,甚至創(chuàng)造下文姥饰,預(yù)測(cè)傻谁,篩選最大概率的詞,喂回列粪,繼續(xù)預(yù)測(cè)……


  • 我們可以每次只預(yù)測(cè)一個(gè)字母审磁,but this is greedy,每次都挑最好的那個(gè)
  • 也可以每次多預(yù)測(cè)幾步篱竭,然后挑整體概率較高的那個(gè)力图,以減少偶然因素的影響
  • 但這樣需要生成的sequence會(huì)指數(shù)增長
  • 因此我們?cè)诙囝A(yù)測(cè)幾步的時(shí)候,只為概率比較高的幾個(gè)候選項(xiàng)做預(yù)測(cè)掺逼,that's beam search.

翻譯與識(shí)圖

  • RNN將variable length sequence問題變成了fixed length vector問題吃媒,同時(shí)因?yàn)閷?shí)際上我們能利用vector進(jìn)行預(yù)測(cè),我們也可以將vector變成sequence

  • 我們可以利用這一點(diǎn),輸入一個(gè)序列赘那,到一個(gè)RNN里刑桑,將輸出輸入到另一個(gè)逆RNN序列,形成另一種序列募舟,比如祠斧,語言翻譯

  • 如果我們將CNN的輸出接到一個(gè)RNN,就可以做一種識(shí)圖系統(tǒng)

循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)踐

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末拱礁,一起剝皮案震驚了整個(gè)濱河市琢锋,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌呢灶,老刑警劉巖吴超,帶你破解...
    沈念sama閱讀 206,126評(píng)論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異鸯乃,居然都是意外死亡鲸阻,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,254評(píng)論 2 382
  • 文/潘曉璐 我一進(jìn)店門缨睡,熙熙樓的掌柜王于貴愁眉苦臉地迎上來鸟悴,“玉大人,你說我怎么就攤上這事奖年∠钢睿” “怎么了?”我有些...
    開封第一講書人閱讀 152,445評(píng)論 0 341
  • 文/不壞的土叔 我叫張陵拾并,是天一觀的道長揍堰。 經(jīng)常有香客問我,道長嗅义,這世上最難降的妖魔是什么屏歹? 我笑而不...
    開封第一講書人閱讀 55,185評(píng)論 1 278
  • 正文 為了忘掉前任,我火速辦了婚禮之碗,結(jié)果婚禮上蝙眶,老公的妹妹穿的比我還像新娘。我一直安慰自己褪那,他們只是感情好幽纷,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,178評(píng)論 5 371
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著博敬,像睡著了一般友浸。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上偏窝,一...
    開封第一講書人閱讀 48,970評(píng)論 1 284
  • 那天收恢,我揣著相機(jī)與錄音武学,去河邊找鬼。 笑死伦意,一個(gè)胖子當(dāng)著我的面吹牛火窒,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播驮肉,決...
    沈念sama閱讀 38,276評(píng)論 3 399
  • 文/蒼蘭香墨 我猛地睜開眼熏矿,長吁一口氣:“原來是場噩夢(mèng)啊……” “哼!你這毒婦竟也來了离钝?” 一聲冷哼從身側(cè)響起票编,我...
    開封第一講書人閱讀 36,927評(píng)論 0 259
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎奈辰,沒想到半個(gè)月后栏妖,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,400評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡奖恰,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 35,883評(píng)論 2 323
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了宛裕。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片瑟啃。...
    茶點(diǎn)故事閱讀 37,997評(píng)論 1 333
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖揩尸,靈堂內(nèi)的尸體忽然破棺而出蛹屿,到底是詐尸還是另有隱情,我是刑警寧澤岩榆,帶...
    沈念sama閱讀 33,646評(píng)論 4 322
  • 正文 年R本政府宣布错负,位于F島的核電站,受9級(jí)特大地震影響勇边,放射性物質(zhì)發(fā)生泄漏犹撒。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,213評(píng)論 3 307
  • 文/蒙蒙 一粒褒、第九天 我趴在偏房一處隱蔽的房頂上張望识颊。 院中可真熱鬧,春花似錦奕坟、人聲如沸祥款。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,204評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽刃跛。三九已至,卻和暖如春苛萎,著一層夾襖步出監(jiān)牢的瞬間桨昙,已是汗流浹背跌帐。 一陣腳步聲響...
    開封第一講書人閱讀 31,423評(píng)論 1 260
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留绊率,地道東北人谨敛。 一個(gè)月前我還...
    沈念sama閱讀 45,423評(píng)論 2 352
  • 正文 我出身青樓,卻偏偏與公主長得像滤否,于是被迫代替她去往敵國和親脸狸。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,722評(píng)論 2 345

推薦閱讀更多精彩內(nèi)容