回歸(三)
Softmax回歸
二分類到多分類問題
在Logistic回歸中关噪,我們處理的是二分類的問題拟杉。我們假定事件的對數(shù)幾率滿足線性模型捆昏,得到的概率函數(shù)滿足sigmoid函數(shù)的形式。在使用模型預(yù)測的時(shí)候,如果求出的概率大于0.5窘哈,就預(yù)測潮针;否則就預(yù)測坏晦。即:
如果碰到多分類問題呢谅海?先以三分類為例脸哀;假設(shè)有三個(gè)類別,那么我們就可以做三次logistic回歸扭吁,假定有n個(gè)特征值企蹭,我們可以定義:
那么的概率分別為:
這就做了三次logistic回歸。然后比較三者的概率大小智末。那么是否能夠直接使用某種方法,通過一次回歸就得到屬于每個(gè)類別的概率呢徒河?
假設(shè)現(xiàn)在我們已經(jīng)求出了的概率系馆,分別為。那么一定滿足:
- (1)的越大顽照,則事件的可能性越大
- (2)
顯然由蘑,是滿足條件(1)的闽寡,要讓概率和為零,只需要對做一個(gè)歸一化操作尼酿。最簡單的就是爷狈,但是這種處理雖然簡單也易于理解,但是在之后的一些處理如求導(dǎo)的操作中比較麻煩裳擎。
使用softmax回歸處理多分類問題
數(shù)學(xué)可以得到涎永,可以用來近似地表示,通常這么做是因?yàn)?img class="math-inline" src="https://math.jianshu.com/math?formula=ln(e%5Ex%20%2B%20e%5Ey)" alt="ln(e^x + e^y)" mathimg="1">相對于更容易求偏導(dǎo)和微分鹿响。這里我們對上面的歸一化做一些修改羡微,不再是簡單地除以所有的和,我們對重新賦予含義:
拓展到K分類的問題惶我,第k類的參數(shù)為妈倔,組成二維矩陣。那么:
同樣可以計(jì)算似然函數(shù)绸贡,對數(shù)似然和求隨機(jī)梯度:
似然函數(shù):
對數(shù)似然:
隨機(jī)梯度:
公式中的采用one-hot編碼盯蝴,對于訓(xùn)練數(shù)據(jù)如果,則有:
這樣听怕,使用模型預(yù)測時(shí)得到的K維列向量中捧挺,每一個(gè)維度的數(shù)值就可以表征屬于對應(yīng)類別的概率。