機器學(xué)習(xí)算法——線性回歸LinearRegression

線性回歸法

思想

  • 解決回歸問題
  • 算法可解釋性強
  • 一般在坐標軸中:橫軸是特征(屬性)智嚷,縱坐標為預(yù)測的結(jié)果猖任,輸出標記(具體數(shù)值)

分類問題中,橫軸和縱軸都是樣本特征屬性(腫瘤大小鳍鸵,腫瘤發(fā)現(xiàn)時間)
尤爾小屋

問題產(chǎn)生

image.png
  • 求解出擬合的直線y=ax+b
  • 根據(jù)樣本點x^{(i)}孕讳,求解預(yù)測值\hat y^{(i)}
  • 求解真實值和預(yù)測值的差距盡量小 ,通常用差的平方和最小表示捷沸,損失函數(shù)為:\mathop {min}\sum ^{m}_{i=1} (y^{(i)}-{\hat {y^{(i)}}})^2
    \mathop {min}\sum ^{m}_{i=1} ({y^{i}-ax^{(i)}-b})^2
  • 上面的損失函數(shù)loss function實際上就是求解a,b

最小二乘法求解a,b

求解損失函數(shù)J(a,b)的過程:J(a,b) = \mathop {min}\sum ^{m}_{i=1} ({y^{i}-ax^{(i)}-b})^2
分別對a,b求導(dǎo)摊沉,在令導(dǎo)數(shù)為0,進行求解最終結(jié)果為:

image.png

  • 先對b求導(dǎo)


    image.png

    image.png
  • 對a求導(dǎo):


    image.png
image.png

a的另一種表示形式:

image.png

向量化過程

向量化主要是針對a的式子來進行改進痒给,將:分子看做w^{(i)},v^{(i)}说墨,分母看做w^{(i)},w^{(i)}

image.png

image.png
import numpy as np

class SimpleLinearRegression1(object):
    def __init__(self):
        # ab不是用戶送進來的參數(shù),相當于是私有的屬性
        self.a_ = None
        self.b_ = None
    
    def fit(self, x_train,y_train):
        # fit函數(shù):根據(jù)訓(xùn)練數(shù)據(jù)集來得到模型
        assert x_train.ndim == 1, \
            "simple linear regression can only solve single feature training data"
        assert len(x_train) == len(y_train), \
            "the size of x_train must be equal to the size of y_train"

        x_mean = np.mean(x_train)
        y_mean = np.mean(y_train)

        num = 0.0
        d = 0.0
        for x, y in zip(x_train, y_train):
            num += (x - x_mean) * (y - y_mean)
            d += (x - x_mean) ** 2
        
        self.a_ = num / d
        self.b_ = y_mean - self.a_ * x_mean
        
        # 返回自身苍柏,sklearn對fit函數(shù)的規(guī)范
        return self
    
    def predict(self, x_predict):
        # 傳進來的是待預(yù)測的x 
        assert x_predict.ndim == 1, \
            "simple linear regression can only solve single feature training data"
        assert self.a_ is not None and self.b_ is not None, \
            "must fit before predict!"
            
        return np.array([self._predict(x) for x in x_predict])
    
    def _predict(self, x_single):
        # 對一個數(shù)據(jù)進行預(yù)測 
        return self.a_ * x_single + self.b_
    
    def __repr__(self):
        # 字符串輸出
        return "SimpleLinearRegression1()"
    
  
 # 通過向量化實現(xiàn)
class SimpleLinearRegression2(object):
    def __init__(self):
        # a, b不是用戶送進來的參數(shù)尼斧,相當于是私有的屬性
        self.a_ = None
        self.b_ = None
    
    def fit(self, x_train, y_train):
        # fit函數(shù):根據(jù)訓(xùn)練數(shù)據(jù)集來得到模型
        assert x_train.ndim == 1, \
            "simple linear regression can only solve single feature training data"
        assert len(x_train) == len(y_train), \
            "the size of x_train must be equal to the size of y_train"

        x_mean = np.mean(x_train)
        y_mean = np.mean(y_train)
        
        #  改成向量形式代替for循環(huán),numpy中的.dot形式
        #  參考上面的向量化公式 
        num = (x_train - x_mean).dot(y_train - y_mean)
        d = (x_train - x_mean).dot(x_train - x_mean)
        
        self.a_ = num / d
        self.b_ = y_mean - self.a_ * x_mean
        
        # 返回自身试吁,sklearn對fit函數(shù)的規(guī)范
        return self
    
    def predict(self, x_predict):
        # 傳進來的是待預(yù)測的x 
        assert x_predict.ndim == 1, \
            "simple linear regression can only solve single feature training data"
        assert self.a_ is not None and self.b_ is not None, \
            "must fit before predict!"
            
        return np.array([self._predict(x) for x in x_predict])
    
    def _predict(self, x_single):
        # 對一個數(shù)據(jù)進行預(yù)測 
        return self.a_ * x_single + self.b_
    
    def __repr__(self):
        # 字符串函數(shù)棺棵,輸出方便進行查看
        return "SimpleLinearRegression2()"

衡量標準

衡量標準:將數(shù)據(jù)分成訓(xùn)練數(shù)據(jù)集train和測試數(shù)據(jù)集test,通過訓(xùn)練數(shù)據(jù)集得到a和b熄捍,再通過測試數(shù)據(jù)集進行衡量

image.png

  • 均方誤差MSE烛恤,mean squared error,存在量綱問題MSE=\frac {1}{m}\sum ^{m}_{i=1}(y^{(i)}_{test}-\hat y^{(i)}_{test})^2
  • 均方根誤差RMSE余耽,root mean squared error缚柏,RMSE=\sqrt{MSE_{test}}=\sqrt {\frac {1}{m}\sum ^{m}_{i=1}(y^{(i)}_{test}-\hat y^{(i)}_{test})^2}
  • 平均絕對誤差MAE,mean absolute error碟贾,MAE=\frac {1}{m}\sum^{m}_{i=1}|y^{(i)}_{test}-\hat y^{(i)}_{test}|

sklearn中沒有RMSE币喧,只有MAE、MSE

import numpy as np
from math import sqrt


def accuracy_score(y_true, y_predict):
    '''準確率的封裝:計算y_true和y_predict之間的準確率'''
    assert y_true.shape[0] == y_predict.shape[0], \
    "the size of y_true must be equal to the size of y_predict"

    return sum(y_true ==y_predict) / len(y_true)


def mean_squared_error(y_true, y_predict):
    # 計算y_true 和 y_predict之間的MSE
    assert len(y_true) == len(y_predict), \
        "the size of y_true must be equal to the size of y_predict"
    return np.sum((y_true - y_predict)**2) / len(y_true)


def root_mean_squared_error(y_true, y_predict):
    # 計算y_true 和 y_predict之間的RMSE
    return sqrt(mean_squared_error(y_true, y_predict))


def mean_absolute_error(y_true, y_predict):
    # 計算y_true 和 y_predict之間的MAE
    assert len(y_true) == len(y_predict), \
        "the size of y_true must be equal to the size of y_predict"
    
    return np.sum(np.absolute(y_true - y_predict)) / len(y_true)
image.png

R^2指標

R^2指標的定義為
R^2=1- \frac {SS_{residual}}{SS_{total}}
R^2=1-\frac {\sum_i{(\hat y^{(i)}-y^{(i)}})^2}{\sum_i{(\bar y-y^{(i)}})^2}

image.png
image.png

分子為模型預(yù)測產(chǎn)生的誤差袱耽;分母為使用均值產(chǎn)生的誤差(baseline model產(chǎn)生的誤差)

式子表示為:預(yù)測模型沒有產(chǎn)生誤差的指標

  • R^2 \leq 1
  • R^2越小越好粱锐。R^2最大值為1,此時預(yù)測模型不犯誤差扛邑。模型等于基準模型時怜浅,R^2為0
  • R^2小于0,此時學(xué)習(xí)到的模型還不如基準模型,說明數(shù)據(jù)可能不存在線性關(guān)系
  • R^2的另一種表示為R^2=1-\frac {MSE(\hat y,y)}{Var(y)}Var表示方差
image.png

多元線性回歸

將特征數(shù)從1拓展到了N恶座,求解思路和一元線性回歸類似搀暑。


image.png

目標函數(shù)


image.png
image.png
image.png

image.png

image.png
image.png
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市跨琳,隨后出現(xiàn)的幾起案子自点,更是在濱河造成了極大的恐慌,老刑警劉巖脉让,帶你破解...
    沈念sama閱讀 218,122評論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件桂敛,死亡現(xiàn)場離奇詭異,居然都是意外死亡溅潜,警方通過查閱死者的電腦和手機术唬,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,070評論 3 395
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來滚澜,“玉大人粗仓,你說我怎么就攤上這事∩杈瑁” “怎么了借浊?”我有些...
    開封第一講書人閱讀 164,491評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長萝招。 經(jīng)常有香客問我蚂斤,道長,這世上最難降的妖魔是什么槐沼? 我笑而不...
    開封第一講書人閱讀 58,636評論 1 293
  • 正文 為了忘掉前任曙蒸,我火速辦了婚禮,結(jié)果婚禮上母赵,老公的妹妹穿的比我還像新娘。我一直安慰自己具滴,他們只是感情好凹嘲,可當我...
    茶點故事閱讀 67,676評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著构韵,像睡著了一般周蹭。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上疲恢,一...
    開封第一講書人閱讀 51,541評論 1 305
  • 那天凶朗,我揣著相機與錄音,去河邊找鬼显拳。 笑死棚愤,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播宛畦,決...
    沈念sama閱讀 40,292評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼瘸洛,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了次和?” 一聲冷哼從身側(cè)響起反肋,我...
    開封第一講書人閱讀 39,211評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎踏施,沒想到半個月后石蔗,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,655評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡畅形,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,846評論 3 336
  • 正文 我和宋清朗相戀三年养距,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片束亏。...
    茶點故事閱讀 39,965評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡铃在,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出碍遍,到底是詐尸還是另有隱情定铜,我是刑警寧澤,帶...
    沈念sama閱讀 35,684評論 5 347
  • 正文 年R本政府宣布怕敬,位于F島的核電站揣炕,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏东跪。R本人自食惡果不足惜畸陡,卻給世界環(huán)境...
    茶點故事閱讀 41,295評論 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望虽填。 院中可真熱鬧丁恭,春花似錦、人聲如沸斋日。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,894評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽恶守。三九已至第献,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間兔港,已是汗流浹背庸毫。 一陣腳步聲響...
    開封第一講書人閱讀 33,012評論 1 269
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留衫樊,地道東北人飒赃。 一個月前我還...
    沈念sama閱讀 48,126評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親盒揉。 傳聞我的和親對象是個殘疾皇子晋被,可洞房花燭夜當晚...
    茶點故事閱讀 44,914評論 2 355

推薦閱讀更多精彩內(nèi)容