2.1 概率論基礎(chǔ)
全概率公式
貝葉斯法則(Bayes' theorem)
貝葉斯決策理論(Bayesian decision theory)
2.2 信息論基礎(chǔ)
熵(entropy)
熵又稱為自信息(self-information)呀舔,表示信源每發(fā)一個(gè)符號(hào)(不論發(fā)什么符號(hào))所提供的平均信息量缸沃。熵也可以被視為描述一個(gè)隨機(jī)變量的不確定性的數(shù)量儒拂。一個(gè)隨機(jī)變量的熵越大仙蛉,它的不確定性越大宛琅。那么浅碾,正確估計(jì)其值的可能性就越小髓考。越不確定的隨機(jī)變量越需要大的信息量用以確定其值纵刘。可將其物理意義理解為:熵越大犬第,進(jìn)行編碼時(shí)所需要的bit位數(shù)越多锦积。
聯(lián)合熵(joint entropy)
條件熵(conditional entropy)
互信息(mutual information)
相對(duì)熵(relative entropy or Kullback-Leibler divergence)
KL距離是不對(duì)稱的,即歉嗓。
交叉熵(cross entropy)
其中丰介,表示個(gè)句子。
由此,我們可以根據(jù)模型和一個(gè)含有大量數(shù)據(jù)的的樣本來(lái)計(jì)算交叉熵哮幢。在設(shè)計(jì)模型時(shí)带膀,我們的目的是使交叉熵最小,從而使模型最接近真實(shí)的概率分布橙垢。
困惑度(perplexity)
雙字耦合度
有研究表明漢語(yǔ)使用詞有6000多個(gè)垛叨,常用一級(jí)詞有2000多個(gè),常用二級(jí)詞有3000多個(gè)柜某。
關(guān)于互信息的應(yīng)用嗽元,例如在漢語(yǔ)斷詞問(wèn)題中:“為人民服務(wù)”的“為人民”部分,是分成“為人”和“民”還是分成“為”和“人民”喂击?可以利用互信息來(lái)估計(jì)兩個(gè)漢字結(jié)合的強(qiáng)度剂癌。通常,互信息值越大翰绊,表示兩個(gè)漢字之間的結(jié)合越緊密佩谷,越有可能成詞;反之辞做,斷開(kāi)的可能性越大琳要。當(dāng)兩個(gè)漢字和關(guān)聯(lián)度較強(qiáng)時(shí),其互信息值秤茅;和關(guān)系弱時(shí)稚补,;而當(dāng)時(shí)框喳,稱和為“互補(bǔ)分布”课幕。
在漢語(yǔ)分詞研究中,也有學(xué)者使用雙字耦合度的概念來(lái)代替互信息五垮。設(shè)乍惊、是兩個(gè)連續(xù)出現(xiàn)的漢字,統(tǒng)計(jì)樣本中放仗、連續(xù)出現(xiàn)在一個(gè)詞中的次數(shù)和連續(xù)出現(xiàn)的總次數(shù)润绎,二者之比就是、的雙字耦合度值诞挨。即:
總結(jié)下兩個(gè)漢字出現(xiàn)時(shí)的所有情況:
1.兩個(gè)漢字連續(xù)出現(xiàn)莉撇,并且在一個(gè)詞中;
2.兩個(gè)漢字連續(xù)出現(xiàn)惶傻,但是分屬兩個(gè)不同的詞棍郎;
3.兩個(gè)漢字非連續(xù)出現(xiàn)。
在實(shí)際應(yīng)用中银室,有些漢字雖然出現(xiàn)得比較頻繁涂佃,但是連續(xù)一起出現(xiàn)的情況比較少励翼。一旦連在一起出現(xiàn),就很可能是一個(gè)詞辜荠。這種情況下計(jì)算出來(lái)的互信息會(huì)比較小汽抚,而實(shí)際的結(jié)合度應(yīng)該是比較高的。雙字耦合度恰恰計(jì)算的是兩個(gè)連續(xù)漢字出現(xiàn)在一個(gè)詞中的概率侨拦,并不考慮兩個(gè)漢字非連續(xù)出現(xiàn)的情況殊橙,即計(jì)算的是相對(duì)頻次辐宾。
因此狱从,在漢語(yǔ)分詞任務(wù)中,耦合度相較于互信息效果常更好叠纹。例如季研,“教務(wù)”以連續(xù)字符串形式在統(tǒng)計(jì)樣本中共出現(xiàn)了16次,而“教”字出現(xiàn)了14945次誉察,“務(wù)”字出現(xiàn)了6015次与涡。(“教”,“務(wù)”)的互信息只有-0.5119,屬于較小的值持偏,利用互信息進(jìn)行斷定時(shí)需要將它們切開(kāi)驼卖。可通過(guò)實(shí)驗(yàn)得到的結(jié)果為:在判斷兩個(gè)連續(xù)漢字之間的結(jié)合強(qiáng)度方面鸿秆,雙字耦合度要比互信息更合適一些酌畜。
噪聲信道模型(noisy channel model)
在信號(hào)傳輸?shù)倪^(guò)程中都要進(jìn)行雙重性處理:一方面要通過(guò)壓縮消除所有的冗余,使得傳輸?shù)牧吭蕉嘣胶们溥矗硪环矫嬗忠黾尤哂嗫刂魄虐由闲r?yàn)位,通過(guò)增加一定的可控冗余以保障輸入信號(hào)經(jīng)過(guò)噪聲信道后可以很好地恢復(fù)原狀考婴。冗余位太多贩虾,影響傳輸容量;冗余位太少沥阱,不能校驗(yàn)傳輸?shù)恼鎸?shí)信號(hào)缎罢。這樣的話,信息編碼時(shí)要盡量占有少量的空間考杉,但又必須保持足夠的冗余以便能夠檢測(cè)和校驗(yàn)錯(cuò)誤策精。而接收到的信號(hào)需要被解碼使其盡量恢復(fù)到原始的輸入信號(hào)。
噪聲信道模型的目標(biāo)就是優(yōu)化噪聲信道中信號(hào)傳輸?shù)耐掏铝亢蜏?zhǔn)確率奔则,其基本假設(shè)是一個(gè)信道的輸出以一定的概率依賴于輸入蛮寂。
2.3 應(yīng)用舉例:詞匯歧義消解問(wèn)題
如何區(qū)分不同上下文中的詞匯語(yǔ)義,就是詞匯歧義消解需要解決的問(wèn)題易茬,或稱為詞義消歧(word sense disambiguation, WSD)問(wèn)題酬蹋。詞義消歧是自然語(yǔ)言處理中的基本問(wèn)題之一及老。每個(gè)詞表達(dá)不同的含義時(shí),其上下文(語(yǔ)境)往往不同范抓。也就是說(shuō)骄恶,不同的詞義對(duì)應(yīng)不同的上下文。因此匕垫,如果能夠?qū)⒍嗔x詞的上下文區(qū)別開(kāi)來(lái)僧鲁,其詞義自然也就明確了。例如象泵,“他/P 很/D 會(huì)/V 與/C (-2)人/N(-1) 打/V(0) 交道/N(+1) 寞秃。/PU(+2)”首先使用了大小為2的上下文窗口。
基于上下文分類的消歧方法 ------ 基于貝葉斯分類器(Gale et al., 1992)
數(shù)學(xué)描述
假設(shè)某個(gè)多義詞所處的上下文語(yǔ)境為偶惠,如果的多個(gè)語(yǔ)義記作春寿。那么,可以通過(guò)計(jì)算來(lái)確定的詞義忽孽。
考慮分母的歸一化绑改,并運(yùn)用如下獨(dú)立性假設(shè):
因此,
結(jié)合最大似然統(tǒng)計(jì)兄一,得:
算法描述
- 對(duì)于多義詞的每個(gè)語(yǔ)義執(zhí)行如下循環(huán):對(duì)于詞典中所有的詞計(jì)算:
- 對(duì)于多義詞的每個(gè)語(yǔ)義計(jì)算:
- 對(duì)于多義詞的每個(gè)語(yǔ)義計(jì)算厘线,并根據(jù)上下文中的每個(gè)詞計(jì)算,選擇:
即出革,
取對(duì)數(shù)后將小數(shù)放大造壮,避免下溢錯(cuò)誤。
基于最大熵的消歧方法
熵是對(duì)一個(gè)信息變量不確定性的預(yù)測(cè)蹋盆。熵值最大時(shí)反映該模型是最隨機(jī)费薄、最不受約束的時(shí)候。
在只掌握關(guān)于未知分布的部分知識(shí)的情況下栖雾,符合已知知識(shí)的概率分布可能有多個(gè)楞抡。但是,使得熵值最大的概率分布最真實(shí)地反映了事件的分布情況析藕。因?yàn)殪囟x了隨機(jī)變量的不確定性召廷,當(dāng)熵最大時(shí),隨機(jī)變量最不確定账胧,最難準(zhǔn)確地預(yù)測(cè)其行為竞慢。也就是說(shuō),在已知部分知識(shí)的前提下治泥,關(guān)于未知分布最合理的推斷應(yīng)該是符合已知知識(shí)下最不確定或最大隨機(jī)的推斷筹煮。
對(duì)于詞義消歧問(wèn)題來(lái)說(shuō),確定一個(gè)多義詞的某個(gè)義項(xiàng)可以看成是一個(gè)事件居夹,多義詞周圍(上下文)出現(xiàn)的詞及其詞性看成是這個(gè)事件發(fā)生的條件败潦。利用條件熵最大時(shí)的概率推斷多義詞使用某一義項(xiàng)的可能性本冲。
用表示某一個(gè)多義詞所有義項(xiàng)的集合,表示所有上下文的集合劫扒。定義域上的二值函數(shù)來(lái)表示上下文條件與義項(xiàng)之間的關(guān)系檬洞,表達(dá)式如下所示:
經(jīng)驗(yàn)概率分布是通過(guò)對(duì)已知的樣本空間進(jìn)行統(tǒng)計(jì)獲得的沟饥,算出的數(shù)學(xué)期望值記為添怔。
假設(shè)所建立的模型的概率分布為,則特征關(guān)于的數(shù)學(xué)期望為贤旷。
使用表示在已知樣本中的概率分布广料,則。
如果特征對(duì)模型是有效的遮晚,那么模型預(yù)測(cè)的數(shù)學(xué)期望和已知樣本統(tǒng)計(jì)的結(jié)果數(shù)學(xué)期望應(yīng)該是一樣的性昭。
假設(shè)我們存在個(gè)特征,這些特征在建模時(shí)對(duì)輸出有影響县遣。建立的模型應(yīng)該屬于這個(gè)范圍中。
條件熵為汹族。在滿足個(gè)約束的前提下萧求,基于使得這個(gè)條件熵取最大值的概率模型來(lái)推斷使用每一個(gè)義項(xiàng)的可能性。