Scikit-Learn機(jī)器學(xué)習(xí)介紹(中文翻譯)2014-12-02?
轉(zhuǎn)自:http://nanshu.wang/%E8%98%85%E8%8A%9C/scikit-learn-docs-translation-1/
翻譯自:http://scikit-learn.org/stable/tutorial/basic/tutorial.html
本章內(nèi)容
在本章中厂财,我們會介紹在使用scikit-learn中遇到的機(jī)器學(xué)習(xí)(machine learning)術(shù)語省店,以及一個簡單的機(jī)器學(xué)習(xí)例子测蘑。
機(jī)器學(xué)習(xí):問題設(shè)定
一般來說,機(jī)器學(xué)習(xí)問題可以這樣來理解:我們有n個樣本(sample)的數(shù)據(jù)集,想要預(yù)測未知數(shù)據(jù)的屬性寡壮。如果描述每個樣本的數(shù)字不只一個视粮,比如一個多維的條目(也叫做多變量數(shù)據(jù)(multivariate data))采桃,那么這個樣本就有多個屬性或者特征。
我們可以將學(xué)習(xí)問題分為以下幾類:
有監(jiān)督學(xué)習(xí)(unsupervised learning)是指數(shù)據(jù)中包括了我們想預(yù)測的屬性昼弟,有監(jiān)督學(xué)習(xí)問題有以下兩類:
分類(classification):樣本屬于兩個或多個類別啤它,我們希望通過從已標(biāo)記類別的數(shù)據(jù)學(xué)習(xí),來預(yù)測未標(biāo)記數(shù)據(jù)的分類。例如变骡,識別手寫數(shù)字就是一個分類問題离赫,其目標(biāo)是將每個輸入向量對應(yīng)到有窮的數(shù)字類別。從另一種角度來思考塌碌,分類是一種有監(jiān)督學(xué)習(xí)的離散(相對于連續(xù))形式渊胸,對于n個樣本,一方有對應(yīng)的有限個類別數(shù)量台妆,另一方則試圖標(biāo)記樣本并分配到正確的類別翎猛。
回歸(regression):如果希望的輸出是一個或多個連續(xù)的變量,那么這項(xiàng)任務(wù)被稱作回歸接剩,比如用年齡和體重的函數(shù)來預(yù)測三文魚的長度切厘。
無監(jiān)督學(xué)習(xí)(unsupervised learning)的訓(xùn)練數(shù)據(jù)包括了輸入向量X的集合,但沒有相對應(yīng)的目標(biāo)變量懊缺。這類問題的目標(biāo)可以是發(fā)掘數(shù)據(jù)中相似樣本的分組疫稿,被稱作聚類(Clustering);也可以是確定輸入樣本空間中的數(shù)據(jù)分布鹃两,被稱作密度估計(jì)(density estimation);還可以是將數(shù)據(jù)從高維空間投射到兩維或三維空間遗座,以便進(jìn)行數(shù)據(jù)可視化。這里是Scikit-Learn的無監(jiān)督學(xué)習(xí)主頁怔毛。
加載樣例數(shù)據(jù)集
scikit-learn有一些標(biāo)準(zhǔn)數(shù)據(jù)集员萍,比如用于分類的iris和digits數(shù)據(jù)集,和用于回歸的波士頓房價(jià)(boston house prices)數(shù)據(jù)集拣度。
下面碎绎,我們會用shell里的Python解釋器來加載iris和digits數(shù)據(jù)集。$表示shell提示符抗果,>>>表示Python解釋器提示符:
$ python
>>> from sklearn import datasets
>>> iris = datasets.load_iris()
>>> digits = datasets.load_digits()
數(shù)據(jù)集類似字典對象筋帖,包括了所有的數(shù)據(jù)和關(guān)于數(shù)據(jù)的元數(shù)據(jù)(metadata)。數(shù)據(jù)被存儲在.data成員內(nèi)冤馏,是一個n_samples*n_features的數(shù)組日麸。在有監(jiān)督問題的情形下,一個或多個因變量(response variables)被儲存在.target成員中逮光。有關(guān)不同數(shù)據(jù)集的更多細(xì)節(jié)可以在這里被找到代箭。
例如,在digits數(shù)據(jù)集中涕刚,digits.data是可以用來分類數(shù)字樣本的特征:
>>> print(digits.data)? # doctest: +NORMALIZE_WHITESPACE
[[? 0.? 0.? 5. ...,? 0.? 0.? 0.]
[? 0.? 0.? 0. ...,? 10.? 0.? 0.]
[? 0.? 0.? 0. ...,? 16.? 9.? 0.]
...,
[? 0.? 0.? 1. ...,? 6.? 0.? 0.]
[? 0.? 0.? 2. ...,? 12.? 0.? 0.]
[? 0.? 0.? 10. ...,? 12.? 1.? 0.]]
digits.target給出了digits數(shù)據(jù)集的真實(shí)值嗡综,即每個數(shù)字圖案對應(yīng)的我們想預(yù)測的真實(shí)數(shù)字:
>>> digits.target
array([0, 1, 2, ..., 8, 9, 8])
數(shù)據(jù)數(shù)組的形式
數(shù)據(jù)是一個2維n_samples*n_features的數(shù)組,盡管原始數(shù)據(jù)集可能會有不同的形式杜漠。在digits數(shù)據(jù)集中极景,每個原始樣本是一個8*8的數(shù)組察净,可以用以下方式訪問:
>>> digits.images[0]
array([[? 0.,? 0.,? 5.,? 13.,? 9.,? 1.,? 0.,? 0.],
[? 0.,? 0.,? 13.,? 15.,? 10.,? 15.,? 5.,? 0.],
[? 0.,? 3.,? 15.,? 2.,? 0.,? 11.,? 8.,? 0.],
[? 0.,? 4.,? 12.,? 0.,? 0.,? 8.,? 8.,? 0.],
[? 0.,? 5.,? 8.,? 0.,? 0.,? 9.,? 8.,? 0.],
[? 0.,? 4.,? 11.,? 0.,? 1.,? 12.,? 7.,? 0.],
[? 0.,? 2.,? 14.,? 5.,? 10.,? 12.,? 0.,? 0.],
[? 0.,? 0.,? 6.,? 13.,? 10.,? 0.,? 0.,? 0.]])
這個簡單的例子說明了如何從原始問題里將數(shù)據(jù)形式化,以便scikit-learn使用盼樟。
學(xué)習(xí)和預(yù)測
在digits數(shù)據(jù)集中氢卡,我們的任務(wù)是給定一個圖案,預(yù)測其表示的數(shù)字是什么晨缴。我們的樣本有10個可能的分類(數(shù)字0到9)译秦,我們將匹配一個預(yù)測器(estimator)來預(yù)測(predict)未知樣本所屬的分類。
在scikit-learn中喜庞,分類的預(yù)測器是一個Python對象诀浪,來實(shí)現(xiàn)fit(X, y)和predict(T)方法棋返。
下面這個預(yù)測器的例子是classsklearn.svm.SVC延都,實(shí)現(xiàn)了支持向量機(jī)分類。創(chuàng)建分類器需要模型參數(shù)睛竣,但現(xiàn)在晰房,我們暫時(shí)先將預(yù)測器看作是一個黑盒:
>>> from sklearn import svm
>>> clf = svm.SVC(gamma=0.001, C=100.)
選擇模型參數(shù)
在這個例子里我們手動設(shè)置了gamma值∩涔担可以通過這些工具例如網(wǎng)格搜索(grid search)和交叉驗(yàn)證(cross validation)來自動找到參數(shù)的最佳取值殊者。
給預(yù)測器取個名字叫做clf(claasifier)。現(xiàn)在預(yù)測器必須來匹配(fit)模型验夯,也就是說猖吴,它必須從模型中學(xué)習(xí)(learn)。這個過程是通過將訓(xùn)練集傳遞給fit方法來實(shí)現(xiàn)的挥转。我們將除了最后一個樣本的數(shù)據(jù)全部作為訓(xùn)練集海蔽。通過Python語法[:-1]來選擇訓(xùn)練集,這會生成一個新的數(shù)組绑谣,包含了除最后一個條目的digits.data:
>>> clf.fit(digits.data[:-1], digits.target[:-1])? # doctest: +NORMALIZE_WHITESPACE
SVC(C=100.0, cache_size=200, class_weight=None, coef0=0.0, degree=3,
gamma=0.001, kernel='rbf', max_iter=-1, probability=False,
random_state=None, shrinking=True, tol=0.001, verbose=False)
現(xiàn)在你可以預(yù)測新值了党窜,具體來說,我們可以詢問分類器借宵,digits數(shù)據(jù)集里最后一個圖案所代表的數(shù)字是什么幌衣,我們并沒有用最后一個數(shù)據(jù)來訓(xùn)練分類器。
>>> clf.predict(digits.data[-1])
array([8])
最一個圖案如下:
如你所見壤玫,這項(xiàng)任務(wù)很具有挑戰(zhàn)性:這個圖案的分辨率很差豁护。你能和分類器得到一致結(jié)果嗎?
一個更復(fù)雜的分類問題的例子在這里:識別手寫數(shù)字(Recognizing hand-written digits)欲间,供學(xué)習(xí)參考楚里。
模型持久性(Model persistence)
可以采用Python內(nèi)建的持久性模型pickle來保存scikit的模型:
>>> from sklearn import svm
>>> from sklearn import datasets
>>> clf = svm.SVC()
>>> iris = datasets.load_iris()
>>> X, y = iris.data, iris.target
>>> clf.fit(X, y)? # doctest: +NORMALIZE_WHITESPACE
SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0, degree=3, gamma=0.0,
kernel='rbf', max_iter=-1, probability=False, random_state=None,
shrinking=True, tol=0.001, verbose=False)
>>> import pickle
>>> s = pickle.dumps(clf)
>>> clf2 = pickle.loads(s)
>>> clf2.predict(X[0])
array([0])
>>> y[0]
0
在scikit的特定情形下,用joblib’s來代替pickle(joblib.dump&joblib.load)會更吸引人括改,在大數(shù)據(jù)下效率更高腻豌,但只能pickle到磁盤而不是字符串:
>>> from sklearn.externals import joblib
>>> joblib.dump(clf, 'filename.pkl') # doctest: +SKIP
你可以在之后重新加載pickled模型(可以在另一個Python程序里):
>>> clf = joblib.load('filename.pkl') # doctest:+SKIP
注意:
joblib.dump返回一個文件名列表家坎。每個包含在clf對象中獨(dú)立的numpy數(shù)組是在文件系統(tǒng)中是按順序排列的一個獨(dú)立文件。當(dāng)用joblib.load重新加載模型時(shí)吝梅,所有文件必須在同一個目錄下虱疏。
注意pickle有一些安全性和維護(hù)性問題。請參考模型持久性章節(jié)獲得更多關(guān)于scikit-learn模型持久性的信息苏携。