邏輯斯諦回歸(邏輯回歸)模型,是統(tǒng)計學習中的經(jīng)典分類方法穆咐。最大熵是概率模型學習的一個準則颤诀,推廣到分類問題得到最大熵模型。邏輯斯諦回歸和最大熵模型都屬于對數(shù)線性模型对湃。
邏輯斯諦回歸模型
邏輯斯諦分布的定義
設是連續(xù)隨機變量崖叫,
服從邏輯斯諦分布是指
具有下列分布函數(shù)和概率密度函數(shù):
式中,是位置參數(shù)拍柒,
為形狀參數(shù)心傀。
分布函數(shù)和密度函數(shù)如下圖所示
分布函數(shù)是一條S形的曲線,以點中心對稱拆讯。密度函數(shù)根據(jù)
左右對稱脂男,形狀參數(shù)的值越小,在中心附近增長越快种呐。另外宰翅,根據(jù)sigmoid函數(shù)定義
概率密度函數(shù)也可以寫成
二項邏輯斯諦回歸模型
二項邏輯斯諦回歸模型是一種分類模型,由條件概率分布表示爽室,
通常取實值0或1汁讼。二項邏輯斯諦回歸模型是如下的條件概率分布:
這里,是輸入阔墩,
是輸出嘿架,
和
是參數(shù),
稱為權值向量啸箫,
稱為偏置耸彪,
為
和
的內(nèi)積。
有時為了方便忘苛,將權值向量和輸入向量進行擴充蝉娜,仍記做和
唱较,
,
召川,這時绊汹,邏輯斯諦回歸模型概率分布如下:
如果根據(jù)函數(shù)的定義
該條件概率分布還可以寫成
一個事件發(fā)生的幾率,定義為發(fā)生的概率和不發(fā)生概率
的比值
扮宠。則該事件的對數(shù)幾率或logit函數(shù)為:
在邏輯斯諦回歸模型中
即邏輯斯諦回歸模型中,輸出的對數(shù)幾率是線性函數(shù)狐榔。反之坛增,也就可以用一個線性函數(shù)轉(zhuǎn)化成邏輯斯諦回歸
發(fā)生的概率,即:
二項邏輯斯諦回歸模型的參數(shù)估計
邏輯斯諦回歸模型學習時薄腻,對于給定的訓練數(shù)據(jù)集收捣,其中,
庵楷,
罢艾,可以用極大似然估計法估計模型參數(shù),從而得到邏輯斯諦回歸模型尽纽。
設
則似然函數(shù)為
對數(shù)似然函數(shù)為
對求極大值咐蚯,得到
的估計值。
求極值可以求的解析解弄贿,但有時解析解不太容易求解春锋,所以也可以使用梯度下降或牛頓法這些迭代方法得到近似解。
多項邏輯斯諦回歸
多分類的多項邏輯斯諦回歸模型差凹,假設隨機變量的取值集合是
期奔,其概率分布為:
這里,危尿,
呐萌。即
分類的多項邏輯斯諦回歸,需要估計
個參數(shù)向量
谊娇。此外肺孤,概率分布也可以看做
最大熵模型
最大熵原理是概率模型學習的一個準則。最大熵原理認為邮绿,學習概率模型時渠旁,在所有可能的概率模型中,熵最大的模型是最好的模型船逮。首先定義熵顾腊。
最大熵原理
假設離散隨機變量的概率分布是
,則其熵是
熵滿足下列不等式:
式中挖胃,是
的取值個數(shù)杂靶,當且僅當
的分布是均勻分布時右邊的等號成立梆惯。也就是說,當
服從均勻分布時吗垮,熵最大垛吗。在決策樹時,熵也作為特征選擇的一個依據(jù)烁登,熵代表了
的不確定性怯屉,在0-1分布中有下圖:
可以看出隨機變量在均勻分布時饵沧,熵最大锨络。最大熵原理的思想就是給予隨機變量
的每個取值相同的概率,前提是滿足已知的約束狼牺。例如:
假設隨機變量有5個取值
羡儿,并且已知
,要求各個取值的概率是钥。根據(jù)最大熵原理掠归,
,
悄泥。
最大熵模型的定義
最大熵原理是選擇模型的思想虏冻,將其應用到分類模型就叫做最大熵模型。
假設分類模型是一個條件概率分布码泞,
表示輸入兄旬,
表示輸出,
和
分別是輸入和輸出的集合余寥。這個模型表示的是對于給定的輸入
领铐,以條件概率
輸出
。
給定一個訓練數(shù)據(jù)集
學習的目標是用最大熵原理選擇最好的分類模型宋舷。
首先定義聯(lián)合分布的經(jīng)驗分布
绪撵,邊緣概率
的經(jīng)驗分布
和特征函數(shù)
其中,表示訓練數(shù)據(jù)中樣本
出現(xiàn)的頻數(shù)祝蝠,
表示訓練數(shù)據(jù)中輸入
出現(xiàn)的頻數(shù)音诈,
表示訓練樣本容量。
特征函數(shù)描述輸入
和輸出
之間的某一個事實
如果模型能夠獲取訓練數(shù)據(jù)中的信息绎狭,那么就可以假設下面兩個期望相等
即
上式中用用
表示细溅,就變成了
對于個特征就應該有
個上述公式(6)的約束成立,也就是最大熵模型應滿足的
個事實儡嘶,在此約束下喇聊,選擇熵最大的分類模型。下面定義最大熵模型:
假設滿足所有約束條件的模型集合為
定義在條件概率分布上的條件熵為
則模型集合中條件熵
最大的模型稱為最大熵模型蹦狂。式中對數(shù)為自然對數(shù)誓篱。條件熵
表示在已知
的情況下
的不確定性朋贬。
最大熵模型的學習
最大熵模型可以描述為下列約束最優(yōu)化問題:
對目標函數(shù)取相反數(shù),轉(zhuǎn)化成極小化問題
定義拉格朗日函數(shù)
最優(yōu)化的原始就變成了
根據(jù)拉格朗日對偶性窜骄,對偶問題是
可以通過求解對偶問題來求解原始問題锦募,首先求解內(nèi)部極小化問題
此時可以先把看做常量,其解寫作
要求極小化邻遏,就要求對
的偏導數(shù)糠亩,并使其等于0
由于,所以
解得
由于准验,解得
其中
稱為規(guī)范化因子削解;
是特征函數(shù);
是特征的權值沟娱,由式(15)-(16)表示的模型是
就是最大熵模型。這里
是最大熵模型中的參數(shù)向量腕柜。之后把
代入
求解對偶問題外部的極大化問題济似,得到模型參數(shù)
其解記為,即
這里可以用最優(yōu)化算法求解盏缤,例如梯度下降砰蠢,牛頓法,擬牛頓法唉铜。就得到了最大熵模型
台舱。
最大熵模型和多項邏輯斯諦回歸
觀察最大熵模型中公式(15)-(16)
和多項邏輯斯諦回歸的公式
可以看出兩者是非常近似的。在多項邏輯斯諦回歸中潭流,對輸入通過權值
進行了加權求和竞惋,得到第
個分類的未規(guī)范化的概率,隨后通過
函數(shù)進行了歸一化灰嫉,使其符合概率分布拆宛。而在最大熵模型中,多了一個通過約束的特征函數(shù)
對輸入
進行特征提取的過程讼撒,然后對特征向量進行加權求和浑厚,得到未規(guī)范化的概率,隨后通過
函數(shù)進行了歸一化根盒,使其符合概率分布钳幅,模型的參數(shù)
通過最大熵原理習得。此外炎滞,最大熵模型和多項邏輯斯諦回歸都是對數(shù)線性模型敢艰。
極大似然估計
下面證明求解對偶問題極大化等價于對最大熵模型進行極大似然估計,即求解等價于求解條件概率
的對數(shù)似然函數(shù)的極大化厂榛。
已知訓練數(shù)據(jù)的經(jīng)驗概率分布盖矫,條件概率分布
的對數(shù)似然函數(shù)表示為
將公式(15)-(16)代入
在看對偶函數(shù)
由于丽惭,所以
所以
即求解對偶問題極大化等價于對最大熵模型進行極大似然估計。
所以得到最大熵模型的等價的形式
其中
這里辈双,為輸入责掏,
為輸出,
為權值向量湃望,
為任意實值特征函數(shù)换衬。
最大熵模型學習的最優(yōu)化算法
求解最大熵模型,需要求解對偶問題的解证芭。直接求解析解一般是比較困難的瞳浦,但是可以通過迭代算法,例如改進的迭代尺度法(IIS)废士,梯度下降法叫潦,牛頓法或擬牛頓法得到近似解。下面介紹IIS法和擬牛頓法官硝。
改進的迭代尺度法(IIS)的推導
由公式(17)可知需要最大化模型的對數(shù)似然函數(shù)
對于要求解的參數(shù)向量矗蕊,IIS的想法就是找到一個
使得更新后的參數(shù)向量
滿足
那么就可以通過不斷的迭代,使得似然函數(shù)逐漸增大氢架,達到極大似然估計的效果傻咖,計算
利用不等式,即
得到似然函數(shù)增量的下界
將右端記為
于是有
如果能找到合適的使得
提高岖研,那么對數(shù)似然函數(shù)也會提高卿操,但是
中包含了
個變量
,同時對其進行優(yōu)化是非常困難的孙援,所以IIS試圖每次只優(yōu)化一個變量
害淤,固定其他變量
。
為了達到這個目的拓售,IIS引入了一個量
這個量表示所有特征在出現(xiàn)的次數(shù)筝家。
所以,增量的下界可以改寫為
利用指數(shù)函數(shù)的凸性以及對任意邻辉,有
溪王,且
,根據(jù)Jesen不等式得到
所以
記右端
是對數(shù)似然函數(shù)增量的一個新的下界值骇。求
對
的偏導
上面的方程中除了沒有其他變量莹菱,所以可以對
進行優(yōu)化,然后以同樣的方式依次對其他
進行優(yōu)化吱瘩。
改進的迭代尺度法(IIS)的描述
輸入:特征函數(shù)道伟;經(jīng)驗分布
,模型
輸出:最優(yōu)參數(shù)值;最優(yōu)模型
蜜徽。
(1)對所有祝懂,取初值
(2)對每一:
求解方程(21)
其中
更新的值:
(3)如果不是所有都收斂,重復步(2)拘鞋。
在上述算法中砚蓬,如果是常數(shù),且
(即所有特征在任意
出現(xiàn)的次數(shù)都是
次盆色,
與
取值無關灰蛙,
可以提到求和
的外面),根據(jù)方程(21)則
可以直接計算
所以
如果不是常數(shù)隔躲,根據(jù)方程(21)
即
令左端等于
這時候就需要求解方程的解摩梧。這是個一元方程,可以直接求解宣旱,也可以通過牛頓法迭代公式
解方程仅父。
擬牛頓法
最大熵模型的學習還可以用擬牛頓法。
對于最大熵模型:
目標是最大化對數(shù)似然函數(shù):
對其取相反數(shù)浑吟,得到擬牛頓法需要最小化的目標函數(shù):
梯度
最大熵模型學習的BFGS算法
輸入:特征函數(shù)驾霜;經(jīng)驗分布
,目標函數(shù)
买置,梯度
,精度要求
强霎;
輸出:最優(yōu)參數(shù)值忿项;最優(yōu)模型
。
(1)選定初始點城舞,取
為正定對稱矩陣轩触,置
(2)計算。若
家夺,則停止計算脱柱,得
;否則轉(zhuǎn)(3)
(3)由求出
(4)一維搜索:求使得
(5)置
(6)計算拉馋,若
榨为,則停止計算,得
煌茴;否則随闺,按下式求出
:
其中,
(7)置蔓腐,轉(zhuǎn)(3)