? ? 當僅能取小數(shù)目的離散值時,即為分類問題档痪。本節(jié)著重分析二分(binary classification)問題捐下,其中
僅能取0和1。0又被稱為負類(negative class)雁比,1又被稱為正類(positive class),有時也會使用符號“-”傻铣、“+”表示章贞。
(一)邏輯斯蒂回歸(Logistic Regression)
? ? 由于的取值發(fā)生了變化,我們相應修改
形式:
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 非洲,
這里 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??
被稱為邏輯斯蒂方程(logistic function)或者sigmoid函數(shù)(sigmoid function)鸭限。函數(shù)圖像如下:
同樣,我們令两踏,使得
.
計算出的導數(shù)有:
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
讓我們假設(shè):
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
將兩式和為一式有: ? ? ? ? ? 败京。
假設(shè)個訓練例子相互獨立,則其最大似然函數(shù)可寫為:
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
與前例相同梦染,我們?nèi)匀蛔畲蠡瘜?shù)似然函數(shù)
? ? ? ? ? ? ??
選用梯度上升的方式最大化對數(shù)似然函數(shù)赡麦,(在線性回歸中,最大化對數(shù)似然函數(shù)即最小化代價函數(shù)帕识,故在線性回歸中選用的梯度下降法泛粹。)同樣,我們先考慮一個訓練例子的情況肮疗,:
推廣到隨機梯度上升法有:
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
與線性回歸相同晶姊,同樣可以使用牛頓法得到。
(二)感知器學習算法(The perceptron learning algorithm)
考慮修改邏輯斯蒂回歸方法使得輸出值只能為0和1伪货,自然地们衙,我們需要將設(shè)定為閾值函數(shù):
同樣令钾怔,如果我們使用如下更新規(guī)則:
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
則稱為感知器學習算法。