Day_2 簡單線性回歸
概述
- 使用一個簡單的特征來預(yù)測將來值
線性回歸是一種基于非獨立變量X來預(yù)測獨立變量Y的方法甜害。它假設(shè)兩個變量線性相關(guān)挺邀,因此摘仅,我們需要找出X與Y的線性關(guān)系
- 如何尋找最合適的線來擬合
在回歸模型中,如果我們能夠找到能使預(yù)測誤差最小的線來擬合助被,則回歸線的誤差也會最小化蜕煌。
我們應(yīng)該試圖將以觀察到的值與我們預(yù)測值之間的距離最小化派阱。
y = bo + b1*x1
步驟一、處理數(shù)據(jù)
運(yùn)用第一天的五個步驟
- Import the Libraries
- Import the DataSet
- Check for Missing Data
- Split the DataSet
- Feature Scaling
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
dataset = pd.read_csv('studentscores.csv')
X = dataset.iloc[ : , : 1 ].values
Y = dataset.iloc[ : , 1 ].values
from sklearn.cross_validation import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split( X, Y, test_size = 1/4, random_state = 0)
步驟二斜纪、訓(xùn)練訓(xùn)練集的簡單線性回歸模型
為了訓(xùn)練數(shù)據(jù)集贫母,我們將使用sklearn.linear_model
調(diào)用LinearRegression
,使用regressor
對象
我們將使用LinearRegression
類,fit()
方法將對象擬合到數(shù)據(jù)集中盒刚。
from sklearn.linear_model import LinearRegression
regressor = LinearRegression()
regressor = regressor.fit(X_train, Y_train)
步驟三腺劣、預(yù)測結(jié)果
我們將從訓(xùn)練集中預(yù)測結(jié)果,將輸出保存在向量Y_pred
.為了預(yù)測結(jié)果,我們將使用在上一步中在regressor
中使用的LinearRegression
類方法
Y_pred = regressor.predict(X_test)
步驟四因块、數(shù)據(jù)可視化
最后一步為將我們的結(jié)果可視化橘原。我們將使用matplotlib.pyplot
庫來制作訓(xùn)練集結(jié)果和測試集結(jié)果的擴(kuò)散圖(scatter plot),來觀察我們的模型對結(jié)果值的預(yù)測情況
- 可視化訓(xùn)練結(jié)果
plt.scatter(X_train, Y_train, color= 'red')
plt.plot(X_train, regressor.predict(X_train), color= 'blue')
- 可視化測試結(jié)果
plt.scatter(X_test, Y_test, color= "red")
plt.plot(X_test, regressor.predict(X_test), color= "blue")
第2?天的學(xué)習(xí)結(jié)束啦涡上,開心??
本文作者: Keithxodoy
文章為作者一字一句敲出來趾断,整理實在不容易,希望各位轉(zhuǎn)載寫明出處
須知:未經(jīng)允許吩愧,不得轉(zhuǎn)載