感知機(jī)是二分類的線性分類模型挤庇,即通過(guò)一個(gè)超平面將數(shù)據(jù)集分割在兩側(cè)顷啼,同在一個(gè)側(cè)的為同一個(gè)分類,一般上側(cè)的為正例七兜,下側(cè)的為負(fù)例壤靶。
感知機(jī)的定義
假設(shè)輸入空間(特征空間)是,輸出空間是
惊搏。輸入
表示實(shí)例的特征向量贮乳,對(duì)應(yīng)于輸入空間(特征空間)的點(diǎn);輸出
表示實(shí)例的類別恬惯。由輸入空間到輸出空間的如下函數(shù)
稱為感知機(jī)向拆。其中,和
為感知機(jī)模型參數(shù)酪耳,
叫做權(quán)值或權(quán)值向量浓恳,
叫做偏置刹缝,
表示
和
的內(nèi)積。
是符號(hào)函數(shù)颈将,即
并且假設(shè)數(shù)據(jù)是完全線性可分的梢夯,即可以通過(guò)一個(gè)超平面,將數(shù)據(jù)完全正確的分割在其兩側(cè)晴圾。當(dāng)數(shù)據(jù)線性不可分時(shí)颂砸,感知機(jī)算法不收斂。
感知機(jī)的損失函數(shù)
假設(shè)為誤分類點(diǎn)的集合死姚,則感知機(jī)的損失可以表示為
是
的
范數(shù)人乓。最小化該損失的目的是,最小化誤分類點(diǎn)到超平面的距離之和都毒。因?yàn)辄c(diǎn)到平面的距離公式
當(dāng)誤分類時(shí)色罚,如果,模型給出的預(yù)測(cè)應(yīng)該是
账劲,此時(shí)
戳护,反之同理,所以
是誤分類點(diǎn)到超平面的距離瀑焦。由于對(duì)于某個(gè)超平面腌且,
固定,所以不考慮這一項(xiàng)蝠猬,公式(1)中的損失可以簡(jiǎn)化為
感知機(jī)的學(xué)習(xí)算法
感知機(jī)學(xué)習(xí)通常使用梯度下降算法切蟋,分為原始形式和對(duì)偶形式统捶,對(duì)偶形式相比原始形式榆芦,提高了計(jì)算效率。
使用梯度下降喘鸟,首先計(jì)算參數(shù)的梯度匆绣,然后向負(fù)梯度的方向更新參數(shù):
隨機(jī)選取一個(gè)誤分類點(diǎn),對(duì)
進(jìn)行更新:
其中是步長(zhǎng)什黑,又叫學(xué)習(xí)率崎淳。
感知機(jī)學(xué)習(xí)算法的原始形式
輸入:訓(xùn)練數(shù)據(jù)集,其中
愕把,
拣凹,
;學(xué)習(xí)率
恨豁;
輸出:嚣镜;感知機(jī)模型
。
(1)選取初值
(2)在訓(xùn)練數(shù)據(jù)中選取數(shù)據(jù)
(3)如果橘蜜,即誤分類菊匿,此時(shí)更新參數(shù)
(4)轉(zhuǎn)至(2),直到訓(xùn)練集中沒(méi)有誤分類點(diǎn)。
感知機(jī)學(xué)習(xí)算法的對(duì)偶形式
由原始形式可以看出跌捆,當(dāng)模型收斂時(shí)徽职,假設(shè)參數(shù)通過(guò)第
個(gè)樣本
更新了
次,對(duì)于
個(gè)樣本佩厚,參數(shù)的更新可以表示為:
假設(shè)參數(shù)的初值都選取為0姆钉,并且令,則參數(shù)可以表示為
越大說(shuō)明根據(jù)第
個(gè)樣本更新的越多可款,這個(gè)樣本就越難區(qū)分育韩,對(duì)決定超平面影響也最大。此時(shí)感知機(jī)模型可以表示為:
下面給出感知及學(xué)習(xí)算法的對(duì)偶形式:
感知機(jī)學(xué)習(xí)算法的對(duì)偶形式
輸入:訓(xùn)練數(shù)據(jù)集闺鲸,其中
筋讨,
,
摸恍;學(xué)習(xí)率
悉罕;
輸出:;感知機(jī)模型
立镶,其中
壁袄。
(1),
(2)在訓(xùn)練集中選取數(shù)據(jù)
(3)如果媚媒,即誤分類嗜逻,此時(shí)更新參數(shù)
(4)轉(zhuǎn)至(2)直到?jīng)]有誤分類數(shù)據(jù)。
這種方式相比原始形式判斷誤分類的方式缭召,
的方式可以把
的結(jié)果預(yù)存在矩陣中栈顷,加快判斷的速度。滿足下面形式的矩陣叫做
矩陣: