簡單線性回歸
從今日起,開始算法部分學(xué)習(xí)
- 第一個(gè)算法,簡單線性回歸(Simple Linear Regressor)
- 原理:
-- y = ax+b - 學(xué)習(xí)
- 這是最簡單的線性相關(guān),考查的是y和x之間的相互關(guān)系,a代表斜率,b代表截距,只要上過初中,就可以理解,無需多言,總體而言,y和x處于同一條直線附近.
1.jpg
sklearn
當(dāng)然可以利用Python自行實(shí)現(xiàn),不過在現(xiàn)在的時(shí)代,各種算法框架層出不窮,實(shí)在沒有必要舍近求遠(yuǎn),sklearn足夠好用.
導(dǎo)入
from sklearn.linear_model import LinearRegression
實(shí)例化
model = LinearRegression()
- 訓(xùn)練
model.fit(X,y) #X為矩陣,y為list
- 預(yù)測
predict = model.predict(test)[0] #test為需要預(yù)測的值
評(píng)估
- 評(píng)估,可應(yīng)用方差和協(xié)方差進(jìn)行
- numpy計(jì)算方差
np.var(X,ddof=1) #ddof為指定類型
- 協(xié)方差
- 首先將list(y) 變?yōu)閍rray格式
np.cov(X.T,y)[0][1]
R指數(shù)是默認(rèn)的評(píng)估方式
model.score(x,y)
總結(jié)
- 簡單線性回歸較為簡單,不必過度上心,快速進(jìn)入下一環(huán)節(jié):K-NN!