Machine-Learning-Day-1

數(shù)據(jù)預(yù)處理

Day 1的任務(wù)是數(shù)據(jù)預(yù)處理坝锰。開始任務(wù)~

Step1 Import the libs

Screen Shot 2019-01-04 at 2.54.46 PM.png

Numpy包含數(shù)學(xué)函數(shù), Pandas是用來管理導(dǎo)入數(shù)據(jù)集和對(duì)數(shù)據(jù)集進(jìn)行操作.
如果和我一樣對(duì)Pandas一竅不通. 可以用這篇文章來學(xué)習(xí).pandas學(xué)習(xí)
code如下:

#Step 1: Import the libs
import numpy as numpy
import pandas as pd
Step2 Import dataset
Screen Shot 2019-01-04 at 2.54.52 PM.png

數(shù)據(jù)集一般是csv格式. 每行為一條記錄. read_csv后csv中的數(shù)據(jù)被保存到dataframe中.
然后我們從dataframe中分離出自變量和因變量, 分別為矩陣和向量.
code如下:

#Step 2: Import dataset
dataset = pd.read_csv('../datasets/Data.csv')
X = dataset.iloc[ : , :-1].values
Y = dataset.iloc[ : , 3].values
print("Step 2: Importing dataset")
print("X")
print(X)
print("Y")
print(Y)
Step3 Handling the missing data
Screen Shot 2019-01-04 at 2.54.57 PM.png

因?yàn)閿?shù)據(jù)極少很規(guī)范, 所以我們通常需要對(duì)缺失的數(shù)據(jù)進(jìn)行處理. 這樣就不會(huì)在機(jī)器學(xué)習(xí)的時(shí)候被bad data所影響. 一般用Imputer來處理. 而且我們一般用平均數(shù)或者中位數(shù)來替換缺失的值. 例子里缺失值的占位表現(xiàn)形式是NaN.
code如下:

#step 3: Handling the missing data
from sklearn.preprocessing import Imputer
imputer = Imputer(missing_values = "NaN", strategy = "mean", axis = 0)
imputer = imputer.fit(X[ : , 1:3])
X[ : , 1:3] = imputer.transform(X[ : , 1:3])
print("---------------------")
print("Step 3: Handling the missing data")
print("step2")
print("X")
print(X)
Step4 Encoding categorical data
Screen Shot 2019-01-04 at 2.55.04 PM.png

分類數(shù)據(jù)一般不能是label. 需要是數(shù)字. 像例子中的因變量為YES和NO.我們需要用LabelEncoder類來轉(zhuǎn)換.

  • LabelEncoder: 編碼值介于0和n_classes-1之間的標(biāo)簽, 還可用于將非數(shù)字標(biāo)簽(只要它們可比較)轉(zhuǎn)換為數(shù)字標(biāo)簽.
  • OneHotEncoder: 使用K-K方案對(duì)分類整數(shù)特征進(jìn)行編碼.
    code如下:
#Step 4: Encoding categorical data
from sklearn.preprocessing import LabelEncoder, OneHotEncoder
labelencoder_X = LabelEncoder()
X[ : , 0] = labelencoder_X.fit_transform(X[ : , 0])
#Creating a dummy variable
onehotencoder = OneHotEncoder(categorical_features = [0])
X = onehotencoder.fit_transform(X).toarray()
labelencoder_Y = LabelEncoder()
Y =  labelencoder_Y.fit_transform(Y)
print("---------------------")
print("Step 4: Encoding categorical data")
print("X")
print(X)
print("Y")
print(Y)
Step5 Splitting the datasets into training sets and Test sets
Screen Shot 2019-01-04 at 2.55.12 PM.png

數(shù)據(jù)集會(huì)被拆分成兩部分, 一部分為訓(xùn)練集, 用來訓(xùn)練模型. 一部分為測(cè)試集, 用來測(cè)試訓(xùn)練模型的性能. 一般為80:20的原則.
code如下:

#Step 5: Splitting the datasets into training sets and Test sets
from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split( X , Y , test_size = 0.2, random_state = 0)
print("---------------------")
print("Step 5: Splitting the datasets into training sets and Test sets")
print("X_train")
print(X_train)
print("X_test")
print(X_test)
print("Y_train")
print(Y_train)
print("Y_test")
print(Y_test)
Step6 Feature Scaling
Screen Shot 2019-01-04 at 2.55.17 PM.png

在機(jī)器學(xué)習(xí)中, 高數(shù)量級(jí)特征比低數(shù)量級(jí)特征有更高的權(quán)重.
我們用特征標(biāo)準(zhǔn)化或Z分布解決這個(gè)問題.
code如下:

#Step 6: Feature Scaling
from sklearn.preprocessing import StandardScaler
sc_X = StandardScaler()
X_train = sc_X.fit_transform(X_train)
X_test = sc_X.transform(X_test)
print("---------------------")
print("Step 6: Feature Scaling")
print("X_train")
print(X_train)
print("X_test")
print(X_test)
Github Code:

Day-1 Code

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末粹懒,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子顷级,更是在濱河造成了極大的恐慌凫乖,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,548評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件帽芽,死亡現(xiàn)場(chǎng)離奇詭異删掀,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)导街,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,497評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門披泪,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人搬瑰,你說我怎么就攤上這事款票。” “怎么了泽论?”我有些...
    開封第一講書人閱讀 167,990評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵艾少,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我翼悴,道長(zhǎng)缚够,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,618評(píng)論 1 296
  • 正文 為了忘掉前任鹦赎,我火速辦了婚禮谍椅,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘钙姊。我一直安慰自己毯辅,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,618評(píng)論 6 397
  • 文/花漫 我一把揭開白布煞额。 她就那樣靜靜地躺著思恐,像睡著了一般。 火紅的嫁衣襯著肌膚如雪膊毁。 梳的紋絲不亂的頭發(fā)上胀莹,一...
    開封第一講書人閱讀 52,246評(píng)論 1 308
  • 那天,我揣著相機(jī)與錄音婚温,去河邊找鬼描焰。 笑死,一個(gè)胖子當(dāng)著我的面吹牛栅螟,可吹牛的內(nèi)容都是我干的荆秦。 我是一名探鬼主播,決...
    沈念sama閱讀 40,819評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼力图,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼步绸!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起吃媒,我...
    開封第一講書人閱讀 39,725評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤瓤介,失蹤者是張志新(化名)和其女友劉穎吕喘,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體刑桑,經(jīng)...
    沈念sama閱讀 46,268評(píng)論 1 320
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡氯质,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,356評(píng)論 3 340
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了祠斧。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片闻察。...
    茶點(diǎn)故事閱讀 40,488評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖梁肿,靈堂內(nèi)的尸體忽然破棺而出蜓陌,到底是詐尸還是另有隱情觅彰,我是刑警寧澤吩蔑,帶...
    沈念sama閱讀 36,181評(píng)論 5 350
  • 正文 年R本政府宣布,位于F島的核電站填抬,受9級(jí)特大地震影響烛芬,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜飒责,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,862評(píng)論 3 333
  • 文/蒙蒙 一赘娄、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧宏蛉,春花似錦遣臼、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,331評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至嗅义,卻和暖如春屏歹,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背之碗。 一陣腳步聲響...
    開封第一講書人閱讀 33,445評(píng)論 1 272
  • 我被黑心中介騙來泰國(guó)打工蝙眶, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人褪那。 一個(gè)月前我還...
    沈念sama閱讀 48,897評(píng)論 3 376
  • 正文 我出身青樓幽纷,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親博敬。 傳聞我的和親對(duì)象是個(gè)殘疾皇子友浸,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,500評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容