1.寬容的支持向量回歸(SVR)
一種“寬容的”回歸模型:支持向量回歸(Support Vector Regression,SVR)。
支持向量回歸模型的模型函數(shù)也是一個線性函數(shù):针余≌埽看起來和線性回歸的模型函數(shù)一樣分苇!但 SVR 和線性回歸彤蔽,卻是兩個不同的回歸模型让禀。
這兩個模型不同點學習過程挑社,就是:計算損失的原則不同,目標函數(shù)和最優(yōu)化算法也不同巡揍。
1.1.原理
SVR 在線性函數(shù)兩側(cè)制造了一個“間隔帶”痛阻,對于所有落入到間隔帶內(nèi)的樣本,都不計算損失腮敌;只有間隔帶之外的录平,才計入損失函數(shù)麻车。之后再通過最小化間隔帶的寬度與總損失來最優(yōu)化模型。如下圖這樣斗这,只有那些圈了紅圈的樣本(或在隔離帶邊緣之外动猬,或落在隔離帶邊緣上),才被計入最后的損失:
1.2.SVR 的兩個松弛變量
這樣看起來表箭,是不是 SVR 很像 SVM赁咙?不過請注意,有一點 SVR 和 SVM 正相反免钻,那就是:SVR 巴不得所有的樣本點都落在“隔離帶”里面彼水,而 SVM 則恰恰希望所有的樣本點都在“隔離帶”之外!正是這一點區(qū)別极舔,導致 SVR 要同時引入兩個而不是一個松弛變量凤覆。
SVR 引入兩個松弛變量:和
是我們最終要求得的模型函數(shù);和(也就是和)是隔離帶的上下邊緣拆魏;是隔離帶上邊緣之上樣本點的值盯桦,與對應坐標在“上邊緣超平面”上投影的差;而則是隔離帶下邊緣之下樣本點渤刃,到隔離帶下邊緣上的投影拥峦,與該樣本點值的差。用公式來反應:
對于任意樣本卖子,如果它在隔離帶里面或者隔離帶邊緣上略号,則和都為; 如果它在隔離帶上邊緣上方洋闽,則;如果它在下邊緣下方诫舅,則。
2.SVR 的主問題和對偶問題
2.1.SVR 的主問題
SVR 主問題的數(shù)學描述如下:
2.2.SVR 的拉格朗日函數(shù)和對偶問題
我們引入拉格朗日乘子和,來針對上述主問題構(gòu)建拉格朗日函數(shù)俏讹,得到拉格朗日函數(shù)如下:
它對應的對偶問題是:
2.3.求解 SVR 對偶問題
首先要求最小化部分:
分別對当宴,,和求偏導泽疆,并令偏導為户矢,可得:
將上述4個等式帶回到對偶問題中,在通過求負將極大化問題轉(zhuǎn)化為極小化問題殉疼,得到如下結(jié)果:
2.4.用 SMO 算法求解 SVR
SMO 算法針對的是任意樣本只對應一個參數(shù)的情況梯浪,而此處捌年,這個樣本卻對應兩個參數(shù)和。有沒有辦法把和轉(zhuǎn)化為一個參數(shù)呢挂洛?辦法還是有的!
我們整個求解過程采用的是拉格朗日對偶法托酸,對偶問題有解的充要條件是滿足** KKT 條件**。那么對于 SVR 的對偶問題,它的 KKT 條件是什么呢?它的 KKT 條件如下:
由 KKT 條件可見贱案,當且僅當時,才可以取非值;當且僅當時,才可以取非值百新。
對應的是在隔離帶下邊緣以下的樣本形庭。而對應的是在隔離帶上邊緣之上的樣本桩卵。一個樣本不可能同時既在上邊緣之上,又在上邊緣之下辞州,所以這兩個等式最多只有一個成立,相應的和中至少有一個為。
我們設(shè):。既然和中至少有一個為,且霹期,于是有 :帕膜。
將和帶入對偶問題荒典,則有:
如此一來,不就可以應用 SMO 求解了嘛寺董!當然覆糟,這樣一個推導過程僅僅用于說明 SMO 也可以應用于 SVR,具體的求解過程和 SVM 的 SMO 算法還是有所差異的遮咖。
3.支持向量與求解線性模型參數(shù)
因為滩字,又因為前面已經(jīng)求出,因此:
由此可見御吞,只有滿足的樣本才對取值有意義麦箍,才是 SVR 的支持向量。也就是說陶珠,只有當樣本滿足下列兩個條件之一時挟裂,它才是支持向量:
或
換言之,這個樣本要么在隔離帶上邊緣以上揍诽,要么在隔離帶下邊緣以下(含兩個邊緣本身)诀蓉。也就是說,落在隔離帶之外的樣本寝姿,才是 SVR 的支持向量交排!可見划滋,無論是 SVM 還是 SVR饵筑,它們的解都僅限于支持向量,即只是全部訓練樣本的一部分处坪。因此 SVM 和 SVR 的解都具有稀疏性根资。
通過最優(yōu)化方法求解出了 之后,我們還需要求同窘。
而且玄帕,對于那些落在隔離帶上邊緣上的支持向量,有想邦,落在隔離帶下邊緣上的支持變量有裤纹。
因此,其中是位于隔離帶上邊緣的支持向量集合,而則是位于隔離帶下邊緣的支持向量集合鹰椒。
4.SVR 的核技巧
SVR 核技巧的實施辦法和 SVM 一樣锡移,也是將輸入空間的通過映射函數(shù)映射到更高維度的特征空間。然后再在特征空間內(nèi)做本文前面所述的一系列操作漆际。因此淆珊,在特征空間中的線性模型為:
其中:
對照 SVM 核函數(shù)的做法,我們也令:
則:
具體核技巧的實施過程奸汇,也對照 SVM 即可施符。