Logistics Regression
1 邏輯回歸和線性回歸的比較
- 先給出結(jié)論的表格
Logistics Regression | Linear Regression |
---|---|
Output: 0~1 | Output: 任何值 |
:1 代表Class1声登,0 代表 Class2 | 是真實的數(shù)值 |
同左邊 |
- 其中Cross Entropy:
- 為什么要用Cross Entropy(交叉熵)狠鸳,為什么不直接用線性回歸中的 Square Error?
在邏輯回歸中悯嗓,如果用Square Error件舵,經(jīng)過公式推導(dǎo),若脯厨,則當(dāng)等于1(close to Class1)或者等于0(far from Class1)時铅祸,都將為0.
1.1 LR的損失函數(shù)和梯度下降
1.1.1 Likelihood function
-
求該函數(shù)的最大值,為了方便合武,轉(zhuǎn)化成下面的函數(shù)临梗,求最小值點
其中為1時,代表Class1稼跳,為0時盟庞,代表Class2
1.1.2 梯度下降過程
-
這是損失函數(shù)里中括號里的一項,最終可將損失函數(shù)化簡得
1.2 Discriminative vs Generative
- Discriminative 和 Generative 是兩種尋找參數(shù)的方法
前者直接找到和
后者會找到 - 兩者最終得到的w和b是不一樣的
-
從最終的測試結(jié)果來說汤善,Discriminative 得到的結(jié)果是更好的
但是Generative Model 在一些情況下會得到更好的結(jié)果什猖,因為Generative Model 會有“腦補的過程”
即,在樣本集合中不存在的某個樣本红淡,也會被Generative腦補出來不狮,這樣的樣本在一個大的樣本集合中可能會出現(xiàn)。
- Generative 的好處
對訓(xùn)練集的數(shù)量要求更小
對訓(xùn)練集的噪音抗干擾能力更強
1.3 Multi-Class Classification
以三個類為例
如下圖所示在旱,三個類經(jīng)過Softmax函數(shù)之后摇零,最終的值都會落在0,1之間
1.3.1 Softmax 原理
- 假設(shè)有3個Class颈渊,都是高斯分布遂黍,共用同一個協(xié)方差矩陣终佛,這種情況下,做一般推導(dǎo)以后雾家,得到的就是softmax function
1.3.2 Softmax 損失函數(shù)
- x屬于 Class1時
- x屬于 Class2時
- x屬于 Class3時
用這種方式表示的好處是铃彰,Class之間不再有某兩者更加近的距離(如2比1離3更近)
1.3.3 Softmax 梯度下降
更新中...