線性回歸

損失函數(shù)介紹簡單線性回歸最小二乘法梯度下降求解線性回歸評價指標多元線性回歸鏈接

損失函數(shù)介紹

損失函數(shù)描述了單個樣本預測值和真實值之間誤差的程度。用來度量模型一次預測的好壞兼蕊。

損失函數(shù)是衡量預測模型預測期望結(jié)果表現(xiàn)的指標恰响。損失函數(shù)越小治专,模型的魯棒性越好竞穷。吴藻。

常用損失函數(shù)有:

  • 0-1損失函數(shù):用來表述分類問題贯吓,當預測分類錯誤時懈凹,損失函數(shù)值為1,正確為0

  • 平方損失函數(shù):用來描述回歸問題悄谐,用來表示連續(xù)性變量介评,為預測值與真實值差值的平方。(誤差值越大、懲罰力度越強们陆,也就是對差值敏感)

  • 絕對損失函數(shù):用在回歸模型寒瓦,用距離的絕對值來衡量

  • 對數(shù)損失函數(shù):是預測值Y和條件概率之間的衡量。事實上坪仇,該損失函數(shù)用到了極大似然估計的思想杂腰。P(Y|X)通俗的解釋就是:在當前模型的基礎上,對于樣本X椅文,其預測值為Y喂很,也就是預測正確的概率。由于概率之間的同時滿足需要使用乘法皆刺,為了將其轉(zhuǎn)化為加法少辣,我們將其取對數(shù)。最后由于是損失函數(shù)羡蛾,所以預測正確的概率越高漓帅,其損失值應該是越小,因此再加個負號取個反林说。

以上損失函數(shù)是針對于單個樣本的煎殷,但是一個訓練數(shù)據(jù)集中存在N個樣本,N個樣本給出N個損失腿箩,如何進行選擇呢豪直?這就引出了風險函數(shù)。

1珠移、損失函數(shù):單個樣本預測值和真實值之間誤差的程度弓乙。

2、期望風險:是損失函數(shù)的期望钧惧,理論上模型f(X)關(guān)于聯(lián)合分布P(X,Y)的平均意義下的損失暇韧。

3、經(jīng)驗風險:模型關(guān)于訓練集的平均損失(每個樣本的損失加起來浓瞪,然后平均一下)懈玻。

4、結(jié)構(gòu)風險:在經(jīng)驗風險上加上一個正則化項乾颁,防止過擬合的策略涂乌。

簡單線性回歸

簡單線性回歸方程 ?

損失函數(shù)為:平方損失函數(shù) ?

當損失函數(shù)最小,即L=0時英岭,求解a和b

最小二乘法

對a和b求偏導湾盒,

image.png

梯度下降求解

梯度下降就是按照梯度的方向改變?的值,因為梯度的方向就是使損失函數(shù)變化最快的方向

?

批量梯度下降

每次更新?要保證所有樣本的代價函數(shù)下降最快

img

于是

img

隨機梯度下降**

每次更新? 保證某一個樣本的代價函數(shù)下降的最快

小批量梯度下降

每次更新? 保證k個樣本的代價函數(shù)下降的最快

線性回歸評價指標

均方誤差MSE:指參數(shù)估計值與參數(shù)真值之差平方的期望值;

均方根誤差RMSE:是均方誤差的算術(shù)平方根

平均絕對MAE:絕對誤差的平均值

R方:?

R^2 = 1- \frac{\sum_{i=1}^n(Y_i-Y_i')^2}{\sum_{i=1}^n(Y_i-\bar Y)^2}

調(diào)用

mean_squared_error(y_test,y_predict)
mean_absolute_error(y_test,y_predict)
r2_score(y_test,y_predict)</pre>

多元線性回歸

?

簡單線性回歸只需要計算前兩項诅妹,多元線性回歸需要計算n+1個指標

?
class LinearRegression:
?
 def __init__(self):
 """初始化Linear Regression模型"""
 self.coef_ = None    # 系數(shù)(theta0~1 向量)
 self.interception_ = None   # 截距(theta0 數(shù))
 self._theta = None  # 整體計算出的向量theta
?
 def fit_normal(self, X_train, y_train):
 """根據(jù)訓練數(shù)據(jù)X_train罚勾,y_train訓練Linear Regression模型"""
 assert X_train.shape[0] == y_train.shape[0], \
 "the size of X_train must be equal to the size of y_train"
 # 正規(guī)化方程求解
 X_b = np.hstack([np.ones((len(X_train), 1)), X_train])
 self._theta = np.linalg.inv(X_b.T.dot(X_b)).dot(X_b.T).dot(y_train)
?
 self.interception_ = self._theta[0]
 self.coef_ = self._theta[1:]
 return self
?
 def predict(self, X_predict):
 """給定待預測的數(shù)據(jù)集X_predict,返回表示X_predict的結(jié)果向量"""
 assert self.interception_ is not None and self.coef_ is not None, \
 "must fit before predict"
 assert X_predict.shape[1] == len(self.coef_), \
 "the feature number of X_predict must be equal to X_train"
 X_b = np.hstack([np.ones((len(X_predict), 1)), X_predict])
 y_predict = X_b.dot(self._theta)
 return y_predict
?
 def score(self, X_test, y_test):
 """很倔測試機X_test和y_test確定當前模型的準確率"""
 y_predict = self.predict(self, X_test)
 return r2_score(y_test, y_predict)

?
 def __repr__(self):
 return "LinearRegression()"</pre>

調(diào)用

from myAlgorithm.model_selection import train_test_split
from myAlgorithm.LinearRegression import LinearRegression
?
X_train, X_test, y_train, y_test = train_test_split(X, y, seed = 666)
?
reg = LinearRegression()
reg.fit_normal(X_train, y_train)
?
reg.coef_
輸出:
array([-1.18919477e-01,  3.63991462e-02, -3.56494193e-02,  5.66737830e-02,
 -1.16195486e+01,  3.42022185e+00, -2.31470282e-02, -1.19509560e+00,
 2.59339091e-01, -1.40112724e-02, -8.36521175e-01,  7.92283639e-03,
 -3.81966137e-01])
?
reg.interception_
輸出:
34.16143549622471
?
reg.score(X_test, y_test)
輸出:
0.81298026026584658</pre>

鏈接

模型之母:簡單線性回歸&最小二乘法

模型之母:簡單線性回歸的代碼實現(xiàn)

模型之母:多元線性回歸

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市尖殃,隨后出現(xiàn)的幾起案子丈莺,更是在濱河造成了極大的恐慌,老刑警劉巖分衫,帶你破解...
    沈念sama閱讀 212,718評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件场刑,死亡現(xiàn)場離奇詭異,居然都是意外死亡蚪战,警方通過查閱死者的電腦和手機牵现,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,683評論 3 385
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來邀桑,“玉大人瞎疼,你說我怎么就攤上這事”诨” “怎么了贼急?”我有些...
    開封第一講書人閱讀 158,207評論 0 348
  • 文/不壞的土叔 我叫張陵,是天一觀的道長捏萍。 經(jīng)常有香客問我太抓,道長,這世上最難降的妖魔是什么令杈? 我笑而不...
    開封第一講書人閱讀 56,755評論 1 284
  • 正文 為了忘掉前任走敌,我火速辦了婚禮,結(jié)果婚禮上逗噩,老公的妹妹穿的比我還像新娘掉丽。我一直安慰自己,他們只是感情好异雁,可當我...
    茶點故事閱讀 65,862評論 6 386
  • 文/花漫 我一把揭開白布捶障。 她就那樣靜靜地躺著,像睡著了一般纲刀。 火紅的嫁衣襯著肌膚如雪项炼。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 50,050評論 1 291
  • 那天示绊,我揣著相機與錄音芥挣,去河邊找鬼。 笑死耻台,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的空另。 我是一名探鬼主播盆耽,決...
    沈念sama閱讀 39,136評論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了摄杂?” 一聲冷哼從身側(cè)響起坝咐,我...
    開封第一講書人閱讀 37,882評論 0 268
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎析恢,沒想到半個月后墨坚,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,330評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡映挂,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,651評論 2 327
  • 正文 我和宋清朗相戀三年泽篮,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片柑船。...
    茶點故事閱讀 38,789評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡帽撑,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出鞍时,到底是詐尸還是另有隱情亏拉,我是刑警寧澤,帶...
    沈念sama閱讀 34,477評論 4 333
  • 正文 年R本政府宣布逆巍,位于F島的核電站及塘,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏锐极。R本人自食惡果不足惜笙僚,卻給世界環(huán)境...
    茶點故事閱讀 40,135評論 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望溪烤。 院中可真熱鬧味咳,春花似錦、人聲如沸檬嘀。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,864評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽鸳兽。三九已至掂铐,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間揍异,已是汗流浹背全陨。 一陣腳步聲響...
    開封第一講書人閱讀 32,099評論 1 267
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留衷掷,地道東北人辱姨。 一個月前我還...
    沈念sama閱讀 46,598評論 2 362
  • 正文 我出身青樓,卻偏偏與公主長得像戚嗅,于是被迫代替她去往敵國和親雨涛。 傳聞我的和親對象是個殘疾皇子枢舶,可洞房花燭夜當晚...
    茶點故事閱讀 43,697評論 2 351

推薦閱讀更多精彩內(nèi)容

  • 線性回歸算法是使用線性方程對數(shù)據(jù)集擬合得算法,是一個非常常見的回歸算法替久。本章首先從最簡單的單變量線性回歸算法開始介...
    金字塔下的小蝸牛閱讀 2,859評論 0 4
  • 線性模型 根據(jù)周志華老師的定義來說蚯根,線性模型是指其通過屬性的線性組合來進行預測的函數(shù)后众,即用一般向量形式,則寫成其中...
    懷柔小龍蝦閱讀 4,159評論 1 24
  • 背景 學習深度學習已經(jīng)一段時間了颅拦,但是學習過程中總覺得缺了點什么蒂誉,無從動手編程。因此矩距,我還是希望使用寫文章的方式來...
    yjy239閱讀 2,216評論 0 7
  • 什么是梯度下降拗盒?在求解機器學習算法的模型參數(shù),即無約束優(yōu)化問題時锥债,梯度下降(Gradient Descent)是最...
    燁楓_邱閱讀 2,113評論 0 7
  • 線性回歸算法 注:本文所有代碼和數(shù)據(jù)均在個人github下click me 回歸算法一般是針對預測是連續(xù)的情況下陡蝇,...
    leeliang閱讀 1,722評論 0 5