第二次打卡

文本預(yù)處理
文本是一類序列數(shù)據(jù),一篇文章可以看作是字符或單詞的序列壶硅,本節(jié)將介紹文本數(shù)據(jù)的常見預(yù)處理步驟威兜,預(yù)處理通常包括四個步驟:

讀入文本
分詞
建立字典,將每個詞映射到一個唯一的索引(index)
將文本從詞的序列轉(zhuǎn)換為索引的序列庐椒,方便輸入模型
語言模型
一段自然語言文本可以看作是一個離散時間序列椒舵,給定一個長度為 TT 的詞的序列 w1,w2,…,wTw1,w2,…,wT ,語言模型的目標(biāo)就是評估該序列是否合理扼睬,即計算該序列的概率:

P(w1,w2,…,wT).
P(w1,w2,…,wT).

本節(jié)我們介紹基于統(tǒng)計的語言模型逮栅,主要是 nn 元語法( nn -gram)悴势。在后續(xù)內(nèi)容中窗宇,我們將會介紹基于神經(jīng)網(wǎng)絡(luò)的語言模型。

語言模型
假設(shè)序列 w1,w2,…,wTw1,w2,…,wT 中的每個詞是依次生成的特纤,我們有

P(w1,w2,…,wT)=∏t=1TP(wt∣w1,…,wt?1)=P(w1)P(w2∣w1)?P(wT∣w1w2?wT?1)
P(w1,w2,…,wT)=∏t=1TP(wt∣w1,…,wt?1)=P(w1)P(w2∣w1)?P(wT∣w1w2?wT?1)

例如军俊,一段含有4個詞的文本序列的概率

P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w1,w2)P(w4∣w1,w2,w3).
P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w1,w2)P(w4∣w1,w2,w3).

語言模型的參數(shù)就是詞的概率以及給定前幾個詞情況下的條件概率。設(shè)訓(xùn)練數(shù)據(jù)集為一個大型文本語料庫捧存,如維基百科的所有條目粪躬,詞的概率可以通過該詞在訓(xùn)練數(shù)據(jù)集中的相對詞頻來計算,例如昔穴, w1w1 的概率可以計算為:

P^(w1)=n(w1)n
P^(w1)=n(w1)n

其中 n(w1)n(w1) 為語料庫中以 w1w1 作為第一個詞的文本的數(shù)量镰官, nn 為語料庫中文本的總數(shù)量。

類似的吗货,給定 w1w1 情況下泳唠, w2w2 的條件概率可以計算為:

P^(w2∣w1)=n(w1,w2)n(w1)
P^(w2∣w1)=n(w1,w2)n(w1)

其中 n(w1,w2)n(w1,w2) 為語料庫中以 w1w1 作為第一個詞, w2w2 作為第二個詞的文本的數(shù)量宙搬。

n元語法
序列長度增加笨腥,計算和存儲多個詞共同出現(xiàn)的概率的復(fù)雜度會呈指數(shù)級增加。 nn 元語法通過馬爾可夫假設(shè)簡化模型勇垛,馬爾科夫假設(shè)是指一個詞的出現(xiàn)只與前面 nn 個詞相關(guān)脖母,即 nn 階馬爾可夫鏈(Markov chain of order nn ),如果 n=1n=1 闲孤,那么有 P(w3∣w1,w2)=P(w3∣w2)P(w3∣w1,w2)=P(w3∣w2) 谆级。基于 n?1n?1 階馬爾可夫鏈,我們可以將語言模型改寫為

P(w1,w2,…,wT)=∏t=1TP(wt∣wt?(n?1),…,wt?1).
P(w1,w2,…,wT)=∏t=1TP(wt∣wt?(n?1),…,wt?1).

以上也叫 nn 元語法( nn -grams)哨苛,它是基于 n?1n?1 階馬爾可夫鏈的概率語言模型鸽凶。例如,當(dāng) n=2n=2 時建峭,含有4個詞的文本序列的概率就可以改寫為:

P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w1,w2)P(w4∣w1,w2,w3)=P(w1)P(w2∣w1)P(w3∣w2)P(w4∣w3)
P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w1,w2)P(w4∣w1,w2,w3)=P(w1)P(w2∣w1)P(w3∣w2)P(w4∣w3)

當(dāng) nn 分別為1玻侥、2和3時,我們將其分別稱作一元語法(unigram)亿蒸、二元語法(bigram)和三元語法(trigram)凑兰。例如,長度為4的序列 w1,w2,w3,w4w1,w2,w3,w4 在一元語法边锁、二元語法和三元語法中的概率分別為

P(w1,w2,w3,w4)P(w1,w2,w3,w4)P(w1,w2,w3,w4)=P(w1)P(w2)P(w3)P(w4),=P(w1)P(w2∣w1)P(w3∣w2)P(w4∣w3),=P(w1)P(w2∣w1)P(w3∣w1,w2)P(w4∣w2,w3).
P(w1,w2,w3,w4)=P(w1)P(w2)P(w3)P(w4),P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w2)P(w4∣w3),P(w1,w2,w3,w4)=P(w1)P(w2∣w1)P(w3∣w1,w2)P(w4∣w2,w3).

當(dāng) nn 較小時姑食, nn 元語法往往并不準(zhǔn)確。例如茅坛,在一元語法中音半,由三個詞組成的句子“你走先”和“你先走”的概率是一樣的。然而贡蓖,當(dāng) nn 較大時曹鸠, nn 元語法需要計算并存儲大量的詞頻和多詞相鄰頻率。

思考: nn 元語法可能有哪些缺陷斥铺?

參數(shù)空間過大
數(shù)據(jù)稀疏
循環(huán)神經(jīng)網(wǎng)絡(luò)
本節(jié)介紹循環(huán)神經(jīng)網(wǎng)絡(luò)彻桃,下圖展示了如何基于循環(huán)神經(jīng)網(wǎng)絡(luò)實現(xiàn)語言模型。我們的目的是基于當(dāng)前的輸入與過去的輸入序列晾蜘,預(yù)測序列的下一個字符邻眷。循環(huán)神經(jīng)網(wǎng)絡(luò)引入一個隱藏變量 HH ,用 HtHt 表示 HH 在時間步 tt 的值剔交。 HtHt 的計算基于 XtXt 和 Ht?1Ht?1 肆饶,可以認(rèn)為 HtHt 記錄了到當(dāng)前字符為止的序列信息,利用 HtHt 對序列的下一個字符進(jìn)行預(yù)測岖常。 Image Name

循環(huán)神經(jīng)網(wǎng)絡(luò)的構(gòu)造
我們先看循環(huán)神經(jīng)網(wǎng)絡(luò)的具體構(gòu)造驯镊。假設(shè) Xt∈Rn×dXt∈Rn×d 是時間步 tt 的小批量輸入, Ht∈Rn×hHt∈Rn×h 是該時間步的隱藏變量腥椒,則:

Ht=?(XtWxh+Ht?1Whh+bh).
Ht=?(XtWxh+Ht?1Whh+bh).

其中阿宅, Wxh∈Rd×hWxh∈Rd×h , Whh∈Rh×hWhh∈Rh×h 笼蛛, bh∈R1×hbh∈R1×h 洒放, ?? 函數(shù)是非線性激活函數(shù)。由于引入了 Ht?1WhhHt?1Whh 滨砍, HtHt 能夠捕捉截至當(dāng)前時間步的序列的歷史信息往湿,就像是神經(jīng)網(wǎng)絡(luò)當(dāng)前時間步的狀態(tài)或記憶一樣妖异。由于 HtHt 的計算基于 Ht?1Ht?1 ,上式的計算是循環(huán)的领追,使用循環(huán)計算的網(wǎng)絡(luò)即循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network)他膳。

在時間步 tt ,輸出層的輸出為:

Ot=HtWhq+bq.
Ot=HtWhq+bq.

其中 Whq∈Rh×qWhq∈Rh×q 绒窑, bq∈R1×qbq∈R1×q 棕孙。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市些膨,隨后出現(xiàn)的幾起案子蟀俊,更是在濱河造成了極大的恐慌,老刑警劉巖订雾,帶你破解...
    沈念sama閱讀 218,546評論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件肢预,死亡現(xiàn)場離奇詭異,居然都是意外死亡洼哎,警方通過查閱死者的電腦和手機(jī)烫映,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,224評論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來噩峦,“玉大人锭沟,你說我怎么就攤上這事『咎剑” “怎么了冈钦?”我有些...
    開封第一講書人閱讀 164,911評論 0 354
  • 文/不壞的土叔 我叫張陵郊丛,是天一觀的道長李请。 經(jīng)常有香客問我,道長厉熟,這世上最難降的妖魔是什么导盅? 我笑而不...
    開封第一講書人閱讀 58,737評論 1 294
  • 正文 為了忘掉前任,我火速辦了婚禮揍瑟,結(jié)果婚禮上白翻,老公的妹妹穿的比我還像新娘。我一直安慰自己绢片,他們只是感情好滤馍,可當(dāng)我...
    茶點故事閱讀 67,753評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著底循,像睡著了一般巢株。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上熙涤,一...
    開封第一講書人閱讀 51,598評論 1 305
  • 那天阁苞,我揣著相機(jī)與錄音困檩,去河邊找鬼。 笑死那槽,一個胖子當(dāng)著我的面吹牛悼沿,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播骚灸,決...
    沈念sama閱讀 40,338評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼糟趾,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了甚牲?” 一聲冷哼從身側(cè)響起拉讯,我...
    開封第一講書人閱讀 39,249評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎鳖藕,沒想到半個月后魔慷,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,696評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡著恩,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,888評論 3 336
  • 正文 我和宋清朗相戀三年院尔,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片喉誊。...
    茶點故事閱讀 40,013評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡邀摆,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出伍茄,到底是詐尸還是另有隱情栋盹,我是刑警寧澤,帶...
    沈念sama閱讀 35,731評論 5 346
  • 正文 年R本政府宣布敷矫,位于F島的核電站例获,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏曹仗。R本人自食惡果不足惜榨汤,卻給世界環(huán)境...
    茶點故事閱讀 41,348評論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望怎茫。 院中可真熱鬧收壕,春花似錦、人聲如沸轨蛤。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,929評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽舒裤。三九已至,卻和暖如春韩玩,著一層夾襖步出監(jiān)牢的瞬間枪蘑,已是汗流浹背损谦。 一陣腳步聲響...
    開封第一講書人閱讀 33,048評論 1 270
  • 我被黑心中介騙來泰國打工岖免, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人照捡。 一個月前我還...
    沈念sama閱讀 48,203評論 3 370
  • 正文 我出身青樓颅湘,卻偏偏與公主長得像,于是被迫代替她去往敵國和親栗精。 傳聞我的和親對象是個殘疾皇子闯参,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,960評論 2 355

推薦閱讀更多精彩內(nèi)容