擴(kuò)展閱讀:
特征二值化
對(duì)于某些定量特征梗搅,其包含的有效信息為區(qū)間劃分末誓,例如學(xué)習(xí)成績(jī)颗味,假若只關(guān)心“及格”或不“及格”超陆,那么需要將定量的考分,轉(zhuǎn)換成“1”和“0”表示及格和未及格浦马。定量特征二值化的核心在于設(shè)定一個(gè)閾值时呀,大于閾值的賦值為1,小于等于閾值的賦值為0晶默,公式表達(dá)如下:
使用preproccessing庫(kù)的Binarizer類(lèi)對(duì)數(shù)據(jù)進(jìn)行二值化的代碼如下:
from sklearn.preprocessing import Binarizer
X = [[ 1., -1., 2.],
[ 2., 0., 0.],
[ 0., 1., -1.]]
binarizer = Binarizer().fit(X)
print(binarizer.transform(X))
output
[[ 1. 0. 1.]
[ 1. 0. 0.]
[ 0. 1. 0.]]
分類(lèi)特征編碼
特征更多的時(shí)候是分類(lèi)特征谨娜,而不是連續(xù)的數(shù)值特征。 比如一個(gè)人的特征可以是[“male”, “female”]
磺陡, ["from Europe", "from US", "from Asia"]趴梢, ["uses Firefox", "uses Chrome", "uses Safari", "uses Internet Explorer"]
。 這樣的特征可以高效的編碼成整數(shù)币他,例如 ["male", "from US", "uses Internet Explorer"]
可以表示成 [0, 1, 3]
坞靶,["female", "from Asia", "uses Chrome"]
就是[1, 2, 1]
。
這個(gè)的整數(shù)特征表示并不能在scikit-learn的估計(jì)器中直接使用蝴悉,因?yàn)檫@樣的連續(xù)輸入彰阴,估計(jì)器會(huì)認(rèn)為類(lèi)別之間是有序的,但實(shí)際卻是無(wú)序的拍冠。(例如:瀏覽器的類(lèi)別數(shù)據(jù)則是任意排序的)尿这。
一個(gè)將分類(lèi)特征轉(zhuǎn)換成scikit-learn估計(jì)器可用特征的可選方法是使用one-of-K或者one-hot編碼,OneHotEncoder
是該方法的一個(gè)實(shí)現(xiàn)。該方法將每個(gè)類(lèi)別特征的 m
可能值轉(zhuǎn)換成m
個(gè)二進(jìn)制特征值庆杜,當(dāng)然只有一個(gè)是激活值射众。例如:
from sklearn.preprocessing import OneHotEncoder
print(OneHotEncoder().fit_transform([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]]).toarray())
output
[[ 1. 0. 1. 0. 0. 0. 0. 0. 1.]
[ 0. 1. 0. 1. 0. 1. 0. 0. 0.]
[ 1. 0. 0. 0. 1. 0. 1. 0. 0.]
[ 0. 1. 1. 0. 0. 0. 0. 1. 0.]]
缺失值處理
因?yàn)楦鞣N各樣的原因,真實(shí)世界中的許多數(shù)據(jù)集都包含缺失數(shù)據(jù)晃财,這類(lèi)數(shù)據(jù)經(jīng)常被編碼成空格叨橱、NaNs,或者是其他的占位符断盛。但是這樣的數(shù)據(jù)集并不能scikit-learn
學(xué)習(xí)算法兼容雏逾,因?yàn)榇蠖嗟膶W(xué)習(xí)算法都默認(rèn)假設(shè)數(shù)組中的元素都是數(shù)值,因而所有的元素都有自己的意義郑临。 使用不完整的數(shù)據(jù)集的一個(gè)基本策略就是舍棄掉整行或整列包含缺失值的數(shù)據(jù)栖博。但是這樣就付出了舍棄可能有價(jià)值數(shù)據(jù)(即使是不完整的 )的代價(jià)。 處理缺失數(shù)值的一個(gè)更好的策略就是從已有的數(shù)據(jù)推斷出缺失的數(shù)值厢洞。
Imputer
類(lèi)提供了缺失數(shù)值處理的基本策略仇让,比如使用缺失數(shù)值所在行或列的均值典奉、中位數(shù)、眾數(shù)來(lái)替代缺失值丧叽。該類(lèi)也兼容不同的缺失值編碼卫玖。
接下來(lái)是一個(gè)如何替換缺失值的簡(jiǎn)單示例,缺失值被編碼為np.nan
, 使用包含缺失值的列的均值來(lái)替換缺失值踊淳。
import numpy as np
from sklearn.preprocessing import Imputer
imp = Imputer(missing_values='NaN', strategy='mean', axis=0)
imp.fit([[1, 2], [np.nan, 3], [7, 6]])
#Imputer(axis=0, copy=True, missing_values='NaN', strategy='mean', verbose=0)
X = [[np.nan, 2], [6, np.nan], [7, 6]]
print(imp.transform(X))
output
[[ 4. 2. ]
[ 6. 3.66666667]
[ 7. 6. ]]
數(shù)據(jù)變換
很多情況下假瞬,考慮輸入數(shù)據(jù)中的非線性特征來(lái)增加模型的復(fù)雜性是非常有效的。常見(jiàn)的數(shù)據(jù)變換有基于多項(xiàng)式的迂尝、基于指數(shù)函數(shù)的脱茉、基于對(duì)數(shù)函數(shù)的。
使用preproccessing
庫(kù)的PolynomialFeatures
類(lèi)對(duì)數(shù)據(jù)進(jìn)行多項(xiàng)式轉(zhuǎn)換的代碼如下:
import numpy as np
from sklearn.preprocessing import PolynomialFeatures
X = np.arange(6).reshape(3, 2)
PolynomialFeatures(2).fit_transform(X)
output
array([[ 1., 0., 1., 0., 0., 1.],
[ 1., 2., 3., 4., 6., 9.],
[ 1., 4., 5., 16., 20., 25.]])
基本的數(shù)據(jù)預(yù)處理就包含以上的方法垄开。
文中涉及源碼在這里:源碼