數(shù)據(jù)預(yù)處理在眾多深度學(xué)習(xí)算法中都起著重要作用,實際上降狠,對數(shù)據(jù)進(jìn)行適當(dāng)處理后对竣,很多算法能夠發(fā)揮最佳效果。然而面對各種各樣的數(shù)據(jù)榜配,很多時候我們不知道怎么樣才能針對性進(jìn)行處理否纬。本文介紹了Python下的機(jī)器學(xué)習(xí)工具scikit-learn。其中蛋褥,“sklearn.preprocessing”模塊提供了幾種常見的函數(shù)和轉(zhuǎn)換類临燃,把原始的特征向量變得更適合估計器使用。
一、標(biāo)準(zhǔn)化膜廊,即減去平均值再用方差調(diào)整
在scikit-learn中乏沸,數(shù)據(jù)的標(biāo)準(zhǔn)化是很多機(jī)器學(xué)習(xí)估計器的常見要求;如果單個特征看起來不符合標(biāo)準(zhǔn)正態(tài)分布(平均值為0爪瓜,方差為1)的話蹬跃,數(shù)據(jù)之后可能會有很差的表現(xiàn)。
實際上我們通常忽略分布的具體形態(tài)铆铆,數(shù)據(jù)轉(zhuǎn)換僅指: 減去每個特征的平均值炬转,再除以他們的標(biāo)準(zhǔn)差。
例如算灸,學(xué)習(xí)算法中目標(biāo)函數(shù)的很多成分都假設(shè),所有的特征都是圍繞著0的驻啤,并且擁有相同算數(shù)級別的方差(比如SVM中的RBF核菲驴,以及線性模型中的l1,l2正則化)。如果一個特征的方差級別高于其他的特征骑冗,它會在目標(biāo)函數(shù)中占據(jù)主導(dǎo)地位赊瞬,并使得估計器不能按照預(yù)期很好地從其他特征中學(xué)習(xí)。
scale函數(shù)就提供了一個快速且簡便的方法贼涩,對一個數(shù)組型數(shù)據(jù)執(zhí)行這個操作:
調(diào)整后的數(shù)據(jù)平均值為0巧涧,方差為1:
preprocessing模塊還提供了一個類"StandardScaler",它能計算訓(xùn)練集的平均值和標(biāo)準(zhǔn)差遥倦,以便之后對測試集進(jìn)行相同的轉(zhuǎn)換谤绳。因此,這個類適合用于sklearn.pipeline.Pipeline的前幾個步驟:
這個scaler之后能對新的數(shù)據(jù)進(jìn)行袒哥,跟先前對訓(xùn)練集一樣的操作:
此外缩筛,也可以通過在創(chuàng)建StandardScaler時增加with_mean=False或者with_std=False語句,來阻止集中化或縮放比例堡称。
1瞎抛、把特征縮放到一個范圍內(nèi)
另一個標(biāo)準(zhǔn)化的操作,是把特征縮放到一個最小值與最大值之間(通常是0到1)却紧,或者是把每個特征的最大絕對值變到1桐臊。這分別可以通過MinMaxScaler或者M(jìn)axAbsScaler實現(xiàn)。
使用這種轉(zhuǎn)換方式是為了增加強(qiáng)健性晓殊,來解決特征的標(biāo)準(zhǔn)差非常小的問題断凶,以及在稀疏數(shù)據(jù)中保留0元素。
以下是一個把數(shù)據(jù)矩陣縮放到[0,1]范圍內(nèi)的一個例子:
相同的轉(zhuǎn)換器可以用到新的測試集上:相同的縮放巫俺、平移操作會與之前對訓(xùn)練數(shù)據(jù)的操作保持一致:
我們也可以找出從訓(xùn)練數(shù)據(jù)中學(xué)到的轉(zhuǎn)換的具體特性:
如果MinMaxScaler被給予一個明確的feature_range=(min,max)懒浮,完整的公式是:
MaxAbsScaler的功能很類似,但是它把訓(xùn)練數(shù)據(jù)縮放到了[-1,1]范圍內(nèi)。這對已經(jīng)圍繞著0的數(shù)據(jù)或者稀疏數(shù)據(jù)來說是很有意義的砚著。
這里用了這個scaler把之前例子的數(shù)據(jù)進(jìn)行了轉(zhuǎn)換:
與scale一樣次伶,這個模塊也提供了比較簡便的函數(shù)minmax_scale以及maxabs_scale,如果你不想創(chuàng)建一個對象稽穆。
2冠王、轉(zhuǎn)換稀疏數(shù)據(jù)
把稀疏數(shù)據(jù)集中化會破壞數(shù)據(jù)中的稀疏性結(jié)構(gòu),因此不是一個理想的做法舌镶。但是柱彻,對稀疏的輸入轉(zhuǎn)換測度是有道理的,特別是當(dāng)特征具有不同的測度的時候餐胀。
MaxAbsScaler以及maxabs_scale是特別為轉(zhuǎn)換稀疏數(shù)據(jù)設(shè)計的哟楷,并且我們建議使用他們。然而否灾,scale和StandardScaler可以接受scipy.sparse矩陣作為輸入卖擅,只要在創(chuàng)建時說明with_mean=False。否則會產(chǎn)生ValueError墨技,因為默認(rèn)的集中化會破壞稀疏性惩阶,并且會分配過多的內(nèi)存從而導(dǎo)致運行崩潰。RobustScaler不能用于稀疏輸入扣汪,但你可以對稀疏輸入使用transform方法断楷。
注意,scalers同時接受Compressed Sparse Rows以及Compressed Sparse Columns形式崭别。其他類型的稀疏輸入會被轉(zhuǎn)換為Compressed Sparse Rows的形式冬筒。為了避免不必要的內(nèi)存復(fù)制,建議選擇CSR或者CSC的表達(dá)形式茅主。
最后账千,如果集中化后的數(shù)據(jù)預(yù)期非常小,使用toarray方法把稀疏輸入轉(zhuǎn)換為數(shù)組是另一個選擇暗膜。
3匀奏、轉(zhuǎn)換具有異常值的數(shù)據(jù)
如果你的數(shù)據(jù)有很多異常值,使用平均值和方差來進(jìn)行轉(zhuǎn)換可能表現(xiàn)不會很好学搜。在這些情況下娃善,你可以使用robust_scale以及RobustScaler。他們對數(shù)據(jù)的中心和范圍采用更健壯的估計瑞佩。
參考資料:關(guān)于集中化和縮放比例重要性更多的討論:Should I normalize/standardize/resclae the data?