初學者可能一直比較困惑邏輯回歸的定義為什么是那樣的骑晶,明明是分類模型為什么又要叫回歸屏歹?
其實邏輯回歸和概率生成模型在數(shù)學形式上是統(tǒng)一的,下面是關(guān)于邏輯回歸定義形式的數(shù)學推導
上面的概率公式是不是很熟悉后专,沒錯,就是貝葉斯公式冗恨,當我們拿到一個樣本的特征x的時候,我們希望能夠判斷出它的類別味赃,轉(zhuǎn)變成貝葉斯模型就變成了上面的公式掀抹,稍微做一下變換,就轉(zhuǎn)換成了我們熟悉的邏輯回歸公式心俗,下面讓我們看一下z是不是可以轉(zhuǎn)變成wx+b的形式
最下面的兩個公式我們采用的是高斯分布公式傲武,現(xiàn)實世界里面的絕大部分分布都是高斯分布
OK,我們得到了我們想要的結(jié)論,更多內(nèi)容請參考李宏毅的機器學習
關(guān)于邏輯回歸的損失函數(shù)另凌,其實是兩個分布的交叉熵谱轨,關(guān)于熵的內(nèi)容,請參考我的其他博客