機器學習——線性回歸(一)矩陣求解

什么是線性回歸

??相對于其他算法來說線性回歸的原理相對簡單楔敌,而且它的表現(xiàn)形式與我們數(shù)學中的線性方程較為相似,更加利于大家所理解。所以線性回歸一般會作為機器學習愛好者學習機器學習時要學的第一個算法篇梭。

??線性回歸直白的理解就是尋找?guī)讉€自變量(x_{1},x_{2},\cdots,x_{n})與因變量(y)之間的線性關(guān)系看蚜,之所以稱之為“線性”是因為自變量都是一次冪的形式?jīng)]有出現(xiàn)二次或更高形式的自變量蔼两。

??比如下面的例子:
圖1

??上圖所示是身高與體重的關(guān)系(體重很可能與身高有關(guān)系甩鳄,自變量有一個:身高,因變量是體重)额划,很明顯身高與體重可能存在圖中直線所示的關(guān)系妙啃。像這種關(guān)系便可以應(yīng)線性回歸進行分析。

??再例如:
圖2

一個人的可貸款金額可能與 他的住房面積和工資等因素有關(guān)系(房屋面積與工資這兩個因素共同決定了貸款金額俊戳,自變量有兩個房屋面積揖赴、工資,可貸款金額是因變量)抑胎,通過圖中的數(shù)據(jù)尋找工資燥滑、住房面積與可貸款金額之間的關(guān)系便可認為是一個線性回歸問題。

??線性回歸有一個特別需要注意的特點就是它研究的是連續(xù)的自變量與連續(xù)的因變量之間的關(guān)系阿逃,這個要與邏輯回歸相區(qū)別铭拧。就像上兩個例子中所示的住房面積和工資都是可以連續(xù)連續(xù)變化的,可能取到任何現(xiàn)實中合理的值恃锉,而相對應(yīng)的貸款金額也會連續(xù)的變化搀菩;身高、體重同樣也是連續(xù)的破托。邏輯回歸中的h(x)是非連續(xù)的肪跋,其只有兩個取值的可能。這也是一個問題選擇邏輯回歸還是線性回歸進行分析的重要的條件土砂。

線性回歸模型

??回歸分析可以相對簡單的理解成如下的形式:
h_{w}(x)=w _{0}+w _{1}x_{1}+w _{2}x_{2}+w _{3}x_{3}+\cdots +w _{n}x_{n}=\sum_{i=0}^{n}w _{i}x_{i}
??其中w _{0},w _{1},w _{2},\cdots,w _{n}為自變量(因子)對于因變量y的權(quán)重澎嚣。在線性代數(shù)中,其也可寫成如下的形式:
\begin{bmatrix} w_{0} & w_{1} & w_{2} & \cdots & w_{n} \end{bmatrix}\begin{bmatrix} 1\\ x_{1}\\ x_{2}\\ \vdots \\ x_{n}\end{bmatrix}=w^{T}x=h_{w}(x)
??有了上述的模型瘟芝,我們的目的是找到或求出權(quán)重w_{0},w_{1},w_{2},\cdots,w_{n}的值,以便找到x_{1},x_{2},\cdots,x_{n}h(x)之間的映射(函數(shù))關(guān)系褥琐。從圖1中我們可以看出锌俱,一般情況下自變量與因變量不太可能滿足一個嚴格的線性關(guān)系。比較理想的情況是數(shù)據(jù)點都比較均勻的分布在直線的兩側(cè)敌呈,也就是誤差比較小贸宏。我們的目標便是找到一組w_{0},w_{1},w_{2},\cdots,w_{n}使模型與實際的誤差最小。

??線性回歸得出的結(jié)果與實際的結(jié)果應(yīng)該滿足如下的關(guān)系:

y^{(i)}=w^{T}x^{i}+\varepsilon ^{(i)}
??上式中y^{(i)}是實際值磕洪,w^{T}x^{i}是模型的輸出值也就是預(yù)測值吭练,\varepsilon ^{(i)}是二者之間的誤差。
??在理想情況下析显,或者說我們想讓誤差最好最好滿足獨立同分布的鲫咽,也就是說每一條數(shù)據(jù)的誤差相互之間沒有影響而且他們都滿足相同的分布。通常情況下,誤差應(yīng)該滿足高斯分布(正態(tài)分布)如圖3分尸,即誤差大的數(shù)據(jù)很少锦聊,誤差都集中在某一個值的附近。那么理想情況下我們希望誤差都集中在0的附近箩绍,而且數(shù)據(jù)點在模型產(chǎn)生的線兩側(cè)均勻的分布孔庭。那么就是希望誤差滿足均值為0,標準差為1的標準正態(tài)分布材蛛。

3.jpg

??則誤差
w^{T}x^{i}
的概率分布密度函數(shù)可以寫作:
p(\varepsilon ^{(i)})=\frac{1}{\sqrt{2 \pi}}exp(-\frac{\varepsilon ^{(i)}}{\sqrt{2}})^{2}

即:
p(y^{(i)}|x^{(i)};w)=\frac{1}{\sqrt{2\pi }}exp(-(\frac{\varepsilon ^{(i)}}{\sqrt{}2})^{2})=\frac{1}{\sqrt{2\pi }}exp(-(\frac{y^{(i)}-w^{T}x^{(i)}}{\sqrt{2}})^{2})

??上式可以理解為一個關(guān)于“
x^{(i)}
”對應(yīng)下的“
y^{(i)}
”與權(quán)重“
w
”的函數(shù)圆到。因為已知
x^{(i)}
y^{(i)}
,所以上式可以看作是一個關(guān)于參數(shù)
w
的函數(shù)卑吭,即是一個似然函數(shù)芽淡。求上式的極大值也意味著求一個合適的
w
,是
w^{T}x^{i}=y^{(i)}
的概率最大陨簇,也就是求上式極大似然估計吐绵。
??則極大似然函數(shù)為:
L(w)=\prod_{i=1}^{m}p(y^{(i)}|x^{(i)};w)

L(w)=\prod_{i=1}^{m}\frac{1}{\sqrt{2\pi }}exp(-(\frac{y^{(i)}-w^{T}x^{(i)}}{\sqrt{2}})^{2})

??轉(zhuǎn)化為對數(shù)似然函數(shù):
log(L(w))=log(\prod_{i=1}^{m}\frac{1}{\sqrt{2\pi}}exp(-(\frac{y^{(i)}-w^{T}x^{(i)}}{\sqrt{2}})^{2}))

log(L(w))=\sum_{i=1}^{m}log(\frac{1}{\sqrt{2\pi}}exp(-(\frac{y^{(i)}-w^{T}x^{(i)}}{\sqrt{2}})^{2}))

log(L(w))=mlog(\frac{1}{\sqrt{2\pi}})-\frac{1}{2}\sum_{i=1}^{m}(y^{(i)}-w^{T}x^{(i)})^{2}

??其中
mlog(\frac{1}{\sqrt{2\pi}})
是常量,求上式關(guān)于
w
的最大值河绽,相當于求下面式
J(w)
的最小值己单。式
J(w)
與上式的后面的減數(shù)等價,相當于上式的減數(shù)去負再除
m
耙饰,只有這樣
J(w)
才有實際的意義纹笼,即表示模型的平均誤差的平方。
J(w)=\frac{1}{2}\sum_{i=1}^{m}(y^{(i)}-w^{T}x^{(i)})^{2}

??上式中的
J(w)
也就是線性回歸的懲罰函數(shù)(或目標函數(shù))苟跪。求目標函數(shù)的取極小值時對應(yīng)的
w
即是我們需要的解廷痘。下面分別用矩陣的方法和梯度下降的方法對其進行化簡。

矩陣化簡求解

J(w)=\frac{1}{2}\sum_{i=1}^{m}(y^{(i)}-w^{T}x^{(i)})^{2}??可以用矩陣的方式表達如下:
\begin{align*} J(w) &= \frac{1}{2}(xw-y)^{T}(xw-y) \\ &= \frac{1}{2}(w^{T}x^{T}-y^{T})(xw-y) \\ &= \frac{1}{2}(w^{T}x^{T}xw-w^{T}x^{T}y-y^{T}xw+y^{T}y) \end{align*}

??對上式取w的偏導(dǎo):
\begin{align*} \frac{\partial J(w)}{\partial w}&= \frac{1}{2}(\frac{\partial (w^{T}x^{T}xw)}{\partial w}-\frac{\partial (w^{T}x^{T}y)}{\partial w}-\frac{\partial (y^{T}xw)}{\partial w}+\frac{\partial (y^{T}y)}{\partial w}) \end{align*}
??在我之前的文章《機器學習——常見的矩陣求導(dǎo)公式》中對矩陣的導(dǎo)數(shù)進行了總結(jié)件已,根據(jù)文章中的公式7(x可看作列向量笋额,那么x^{^{T}}x是一個常數(shù))可得:\frac{\partial w^{T}x^{T}xw}{\partial w}=2x^{T}xw
??則上式可得:\frac{\partial J(w)}{\partial w}=\frac{1}{2}(2x^{T}xw-x^{T}y-y^{T}x)
??因為x^{T}y=y^{T}x所以上式可得:\frac{\partial J(w)}{\partial w}=x^{T}xw-x^{T}y

??令\frac{\partial J(w)}{\partial w}=0解得:w=(x^{T}x)^{-1}x^{T}y

??上面利用矩陣運算解得最佳的w,接下來將用梯度下降方法求解最佳w篷扩,并對結(jié)果進行分析兄猩。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市鉴未,隨后出現(xiàn)的幾起案子枢冤,更是在濱河造成了極大的恐慌,老刑警劉巖铜秆,帶你破解...
    沈念sama閱讀 210,978評論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件淹真,死亡現(xiàn)場離奇詭異,居然都是意外死亡连茧,警方通過查閱死者的電腦和手機核蘸,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 89,954評論 2 384
  • 文/潘曉璐 我一進店門巍糯,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人值纱,你說我怎么就攤上這事鳞贷。” “怎么了虐唠?”我有些...
    開封第一講書人閱讀 156,623評論 0 345
  • 文/不壞的土叔 我叫張陵搀愧,是天一觀的道長。 經(jīng)常有香客問我疆偿,道長咱筛,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,324評論 1 282
  • 正文 為了忘掉前任杆故,我火速辦了婚禮迅箩,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘处铛。我一直安慰自己饲趋,他們只是感情好,可當我...
    茶點故事閱讀 65,390評論 5 384
  • 文/花漫 我一把揭開白布撤蟆。 她就那樣靜靜地躺著奕塑,像睡著了一般。 火紅的嫁衣襯著肌膚如雪家肯。 梳的紋絲不亂的頭發(fā)上龄砰,一...
    開封第一講書人閱讀 49,741評論 1 289
  • 那天,我揣著相機與錄音讨衣,去河邊找鬼换棚。 笑死,一個胖子當著我的面吹牛反镇,可吹牛的內(nèi)容都是我干的固蚤。 我是一名探鬼主播,決...
    沈念sama閱讀 38,892評論 3 405
  • 文/蒼蘭香墨 我猛地睜開眼歹茶,長吁一口氣:“原來是場噩夢啊……” “哼夕玩!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起辆亏,我...
    開封第一講書人閱讀 37,655評論 0 266
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎鳖目,沒想到半個月后扮叨,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,104評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡领迈,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,451評論 2 325
  • 正文 我和宋清朗相戀三年彻磁,在試婚紗的時候發(fā)現(xiàn)自己被綠了碍沐。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片衷蜓。...
    茶點故事閱讀 38,569評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡累提,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出磁浇,到底是詐尸還是另有隱情斋陪,我是刑警寧澤,帶...
    沈念sama閱讀 34,254評論 4 328
  • 正文 年R本政府宣布置吓,位于F島的核電站无虚,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏衍锚。R本人自食惡果不足惜友题,卻給世界環(huán)境...
    茶點故事閱讀 39,834評論 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望戴质。 院中可真熱鬧度宦,春花似錦、人聲如沸告匠。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,725評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽凫海。三九已至呛凶,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間行贪,已是汗流浹背漾稀。 一陣腳步聲響...
    開封第一講書人閱讀 31,950評論 1 264
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留建瘫,地道東北人崭捍。 一個月前我還...
    沈念sama閱讀 46,260評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像啰脚,于是被迫代替她去往敵國和親殷蛇。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 43,446評論 2 348