簡(jiǎn)介
本文主要說明特征工程中關(guān)于序數(shù)特征和類別特征的常用處理方法。主要包含LabelEncoder、One-Hot編碼、DummyCoding询吴、FeatureHasher以及要重點(diǎn)介紹的WOE編碼。
序數(shù)特征處理
序數(shù)特征指的是有序但無尺度的特征亮元。比如表示‘學(xué)歷’的特征猛计,'高中'、'本科'爆捞、'碩士'奉瘤,這些特征彼此之間是有順序關(guān)系的,但是特征本身無尺度煮甥,并且也可能不是數(shù)值類型毛好。在實(shí)際應(yīng)用中望艺,一般是字符類型居多,為了將其轉(zhuǎn)換成模型能處理的形式肌访,通常需要先進(jìn)行編碼找默,比如LabelEncoding。如果序數(shù)特征本身就是數(shù)值類型變量吼驶,則可不進(jìn)行該步驟惩激。下面依次介紹序數(shù)特征相關(guān)的處理方式。
Label Encoding
首先介紹Label Encoding編碼方式蟹演,該方式默認(rèn)從0開始风钻,按照變量字符順序排序,例子如下:
from sklearn.preprocessing import LabelEncoder
x = ['a', 'b', 'a', 'c', 'b']
encoder = LabelEncoder()
x1 = encoder.fit_transform(x)
x1
可以看到酒请,原始特征一共被分為了3類骡技,'a'、'b'羞反、'c'編碼后分別為'0'布朦、'1'、'2'昼窗。
如果你的數(shù)據(jù)是用pandas表示的是趴,pandas中也有類似的處理方式,通過類別編碼的方式得到的結(jié)果是一樣的澄惊。
import pandas as pd
x2 = pd.Series(x).astype('category')
x2.cat.codes.values
因子化
除此之外唆途,pandas中還有一種編碼方式,叫做'因子化'掸驱。不過它并不是按照特征的字符順序來排序的肛搬,而是按照特征變量出現(xiàn)的先后順序來編碼的,結(jié)果本質(zhì)上沒有區(qū)別毕贼。對(duì)比例子如下:
x = ['a', 'b', 'a', 'c', 'b']
# 調(diào)換了第一個(gè)a和第四個(gè)c的位置
x1 = ['c', 'b', 'a', 'a', 'b']
x2, uniques = pd.factorize(x)
x3, uniques = pd.factorize(x1)
print("x2: ", x2)
print("x3: ", x3)
二值化
序數(shù)特征還可以進(jìn)行二值化操作滚婉,小于或者大于閾值的時(shí)候分別為0和1。實(shí)例如下:
x = ['a', 'b', 'a', 'c', 'b']
x4 = pd.Series(x)
x4 = (x4 >= 'b').astype(int) #令大于等于'b'的都為1
x4.values
類別特征處理
類別特征由于沒有順序也沒有尺度帅刀,因此處理較為麻煩,但是在CTR等領(lǐng)域卻是非常常見的特征远剩。比如商品的類型扣溺,顏色,用戶的職業(yè)瓜晤,興趣等等锥余。類別變量編碼方法中最常使用的就是One-Hot編碼,接下來結(jié)合具體實(shí)例來介紹痢掠。
One-Hot編碼
One-Hot編碼驱犹,又稱為'獨(dú)熱編碼'嘲恍,其變換后的單列特征值只有一位是1。如下例所示雄驹,一個(gè)特征中包含3個(gè)不同的特征值(a,b,c)佃牛,編碼轉(zhuǎn)換后變成3個(gè)子特征,其中每個(gè)特征值中只有一位是有效位1医舆。
from sklearn.preprocessing import LabelEncoder, OneHotEncoder
one_feature = ['b', 'a', 'c']
label_encoder = LabelEncoder()
feature = label_encoder.fit_transform(one_feature)
onehot_encoder = OneHotEncoder(sparse=False)
onehot_encoder.fit_transform(feature.reshape(-1, 1))
這里要注意的是俘侠,因?yàn)樵继卣魇亲址愋停@里使用上一節(jié)的LabelEncoder先將其轉(zhuǎn)換成數(shù)值類型蔬将。但是實(shí)際上這一步也不需要爷速,OneHotEncoder可以直接處理字符串類型。
LabelBinarizer
sklearn中的LabelBinarizer也具有同樣的作用霞怀,代碼如下:
from sklearn.preprocessing import LabelBinarizer
feature = np.array(['b', 'a', 'c'])
LabelBinarizer().fit_transform(feature)
虛擬編碼Dummy Coding
同樣惫东,pandas中也內(nèi)置了對(duì)應(yīng)的處理方式,使用起來比Sklearn更加方便。實(shí)例如下:
one_feature = ['b', 'a', 'c']
pd.get_dummies(one_feature, prefix='test') # 設(shè)置前綴test
其實(shí)仔細(xì)觀察One-Hot編碼會(huì)發(fā)現(xiàn)毙石,具有n個(gè)類別值的單個(gè)特征將會(huì)編碼成n個(gè)子特征廉沮。但實(shí)際上有一維是冗余的。虛擬編碼(dummy coding)可以只產(chǎn)生n-1個(gè)特征胁黑,再使用一個(gè)全零的向量废封,實(shí)例如下:
one_feature = ['b', 'a', 'c']
pd.get_dummies(one_feature, prefix='test', drop_first=True) # 設(shè)置前綴test
可以看到這里只產(chǎn)生了2個(gè)子特征,剩余的一個(gè)特征由全零向量表示丧蘸。
特征哈希
按照上述編碼方式漂洋,如果某個(gè)特征具有100個(gè)類別值,那么經(jīng)過編碼后將產(chǎn)生100個(gè)或99個(gè)新特征力喷,這極大地增加了特征維度和特征的稀疏度刽漂,同時(shí)還可能會(huì)出現(xiàn)內(nèi)存不足的情況。sklearn中的FeatureHasher接口采用了hash的方法弟孟,將不同的值映射到用戶指定長(zhǎng)度的數(shù)組中贝咙,使得輸出特征的維度是固定的,該方法占用內(nèi)存少拂募,效率高庭猩,可以在多類別變量值中使用,但是由于采用了Hash函數(shù)的方式陈症,所以具有沖突的可能蔼水,即不同的類別值可能映射到同一個(gè)特征變量值中。
下面的例子中录肯,原始特征類別值共有10個(gè)不同的值趴腋,但是只采用了長(zhǎng)度為5的數(shù)組進(jìn)行編碼。
from sklearn.feature_extraction import FeatureHasher
h = FeatureHasher(n_features=5, input_type='string')
test_cat = ['a','b','c','d','e','f','g','h','i','j','a','b']
f = h.transform(test_cat)
f.toarray()
可以看到編碼后的特征值是有重復(fù)的,說明多個(gè)不同的原始特征類別值編碼后优炬,被映射到了同一個(gè)類別里颁井。
多類別值處理方式
當(dāng)類別值過多時(shí),One-Hot 編碼或者Dummy Coding都可能導(dǎo)致編碼出來的特征過于稀疏蠢护,其次也會(huì)占用過多內(nèi)存雅宾。如果使用FeatureHasher,n_features的設(shè)置不好把握糊余,可能會(huì)造成過多沖突秀又,造成信息損失。這里提供一種基于統(tǒng)計(jì)的編碼方法贬芥,包括基于特征值的統(tǒng)計(jì)或者基于標(biāo)簽值的統(tǒng)計(jì)——基于標(biāo)簽的編碼吐辙。
下面的代碼演示了使用特征值出現(xiàn)頻數(shù)的分組方法,小于指定閾值的特征將被編碼為同一個(gè)值蘸劈。
import seaborn as sns
test = ['a','b','c','d','e','a','a','c']
df = pd.DataFrame(test, columns=['alpha'])
sns.countplot(df['alpha'])
首先我們將每個(gè)類別值出現(xiàn)的頻數(shù)計(jì)算出來昏苏,比如我們?cè)O(shè)置閾值為1,那么所有小于閾值1的類別值都會(huì)被編碼為同一類威沫,大于1的類別值會(huì)分別編碼贤惯,如果出現(xiàn)頻數(shù)一樣的類別值,既可以都統(tǒng)一分為一個(gè)類棒掠,也可以按照某種順序進(jìn)行編碼孵构,這個(gè)可以根據(jù)業(yè)務(wù)需要自行決定。那么根據(jù)上圖烟很,可以得到其編碼值為:
即(a,c)分別編碼為一個(gè)不同的類別颈墅,(e,b,d)編碼為同一個(gè)類別。
WOE編碼
WOE(Weight of Evidence雾袱,證據(jù)權(quán)重)編碼利用了標(biāo)簽信息恤筛,屬于有監(jiān)督的編碼方式。該方式廣泛用于金融領(lǐng)域信用風(fēng)險(xiǎn)模型中芹橡,是該領(lǐng)域的經(jīng)驗(yàn)做法毒坛。下面先給出WOE的計(jì)算公式:
值可解釋為第
類別中好壞樣本分布比值的對(duì)數(shù)。其中各個(gè)分量的解釋如下:
-
表示該類別中壞樣本的分布
-
表示該類別中好樣本的分布
-
表示該類別中壞樣本的數(shù)量在總體壞樣本中的占比
-
表示該類別中好樣本的數(shù)量在總體好樣本中的占比
很明顯林说,如果整個(gè)分?jǐn)?shù)的值大于1煎殷,那么WOE值為正,否則為負(fù)腿箩,所以WOE值的取值范圍為正負(fù)無窮豪直。
WOE值直觀上表示的實(shí)際上是“當(dāng)前分組中壞客戶占所有壞客戶的比例”和“當(dāng)前分組中好客戶占所有壞客戶的比例”的差異。轉(zhuǎn)化公式以后度秘,也可以理解為:當(dāng)前這個(gè)組中壞客戶和好客戶的比值,和所有樣本中這個(gè)比值的差異。這個(gè)差異為這兩個(gè)比值的比值剑梳,再取對(duì)數(shù)來表示的唆貌。
WOE越大,這種差異越大垢乙,這個(gè)分組里的樣本壞樣本可能性就越大锨咙,WOE越小,差異越小追逮,這個(gè)分組里的壞樣本可能性就越小酪刀。
下面結(jié)合一個(gè)例子來說明WOE的計(jì)算:
np.random.seed(0)
# 隨機(jī)生成1000行數(shù)據(jù)
df = pd.DataFrame({
'x': np.random.choice(['R','G','B'], 1000),
'y': np.random.randint(2, size=1000)
})
df.head()
其中x代表特征,包含3個(gè)類別(R钮孵,G骂倘,B),y表示標(biāo)簽巴席,取值范圍為0历涝、1,分別代表好漾唉、壞標(biāo)簽荧库。
分別統(tǒng)計(jì)該特征中各個(gè)類別的占比,代碼如下:
pd.crosstab(df['y'], df['x'], margins=True)
同理可得
由WOE值的定義推斷,相鄰類別的絕對(duì)值差異越大元咙,說明組之間差異越大既们,越具備區(qū)分性,預(yù)測(cè)性能越好概漱。
參考
- 《機(jī)器學(xué)習(xí)--軟件工程方法與實(shí)現(xiàn)》
- https://zhuanlan.zhihu.com/p/146476834
- http://www.reibang.com/p/4a1dc6ea3f8c