數(shù)據(jù)挖掘可以大概分為:分類與回歸,聚類分析拘央,關(guān)聯(lián)規(guī)則涂屁,時(shí)序模式,異常檢測(cè)等模型灰伟。
分類主要是預(yù)測(cè)分類標(biāo)號(hào)拆又,即離散屬性,而預(yù)測(cè)主要是建立連續(xù)值函數(shù)模型栏账,預(yù)測(cè)給定自變量對(duì)應(yīng)的因變量的值
1. 邏輯回歸
邏輯回歸模型的建模步驟如下圖:
其中模型檢驗(yàn)的指標(biāo)有很多帖族,比如準(zhǔn)確率,混淆矩陣挡爵,ROC曲線竖般,KS值等
在建模時(shí),經(jīng)常要用到特征篩選茶鹃,方法有很多涣雕,主要是sklearn的feature_selection庫(kù)中艰亮,比較簡(jiǎn)單的有F檢驗(yàn)(f_regression)來(lái)給出各個(gè)特征的F值和p值,我們可以篩選F值大的或p值小的特征挣郭。其次有遞歸特征消除法(RFE)和穩(wěn)定性選擇等比較新的方法迄埃。
下面是使用穩(wěn)定性選擇方法來(lái)篩選特征,然后利用篩選后的特征建立邏輯回歸模型兑障,輸出平均準(zhǔn)確率侄非。
### 用隨機(jī)邏輯回歸來(lái)篩選特征
from sklearn.linear_model import RandomizedLogisticRegression as RLR
rlr = RLR() #建立隨機(jī)邏輯回歸模型,篩選變量
rlr.fit(x, y) #訓(xùn)練模型
print(rlr.get_support()) #獲取特征篩選結(jié)果流译,也可以通過(guò).scores_方法獲取各個(gè)特征的分?jǐn)?shù)
print('通過(guò)隨機(jī)邏輯回歸模型篩選特征結(jié)束逞怨。')
print(data.iloc[:,:-1].columns[rlr.get_support()])
print('有效特征為:%s' % ','.join(data.iloc[:,:-1].columns[rlr.get_support()]))
x = data[data.iloc[:,:-1].columns[rlr.get_support()]] #篩選好特征
Index(['工齡', '地址', '負(fù)債率', '信用卡負(fù)債'], dtype='object')
有效特征為:工齡,地址,負(fù)債率,信用卡負(fù)債
使用篩選的特征數(shù)據(jù)來(lái)建模,得到的準(zhǔn)確率為:
from sklearn.linear_model import LogisticRegression as LR
lr = LR() #建立邏輯貨柜模型
lr.fit(x, y) #用篩選后的特征數(shù)據(jù)來(lái)訓(xùn)練模型
print('邏輯回歸模型訓(xùn)練結(jié)束福澡。')
print('模型的平均正確率為:%s' % lr.score(x, y)) #給出模型的平均正確率骇钦,本例為81.4%
模型的平均正確率為:0.8142857142857143
如果不使用篩選的特征溃卡,而使用全部的特征來(lái)建模慷彤,得到的準(zhǔn)確率為:
from sklearn.linear_model import LogisticRegression as LR
lr = LR() #建立邏輯貨柜模型
lr.fit(data.iloc[:,:-1].values, y) #用篩選后的特征數(shù)據(jù)來(lái)訓(xùn)練模型
print('邏輯回歸模型訓(xùn)練結(jié)束岩榆。')
print('模型的平均正確率為:%s' % lr.score(data.iloc[:,:-1].values, y))
模型的平均正確率為:0.8057142857142857
看來(lái)通過(guò)篩選主要的特征,準(zhǔn)確率反而會(huì)提高一些业岁。
邏輯回歸本質(zhì)上還是一種線性模型,因此這里的模型有效性檢樣本質(zhì)上還是在做線性相關(guān)檢驗(yàn)寇蚊,因此篩選出來(lái)的特征笔时,說(shuō)明與結(jié)果具有比較強(qiáng)的線性相關(guān)性,而被篩掉的變量并不一定就跟結(jié)果沒(méi)有關(guān)系仗岸,他們之間有可能是非線性關(guān)系允耿。
2. 決策樹(shù)
ID3算法基于信息熵來(lái)選擇最佳測(cè)試屬性,它選擇當(dāng)前樣本集中具有最大信息增益值的屬性作為測(cè)試屬性扒怖。
用決策樹(shù)的代碼為:
data=pd.read_excel("E:\PyProjects\DataSet\PyMining\Data\chapter5\demo\data\sales_data.xls",index_col='序號(hào)')
data.info()
#數(shù)據(jù)是類別標(biāo)簽较锡,要將它轉(zhuǎn)換為數(shù)據(jù)
#用1來(lái)表示“好”、“是”盗痒、“高”這三個(gè)屬性蚂蕴,用-1來(lái)表示“壞”、“否”俯邓、“低”
data[data == '好'] = 1
data[data == '是'] = 1
data[data == '高'] = 1
data[data != 1] = -1
x=data.iloc[:,:-1].values
y=data.iloc[:,-1].values
from sklearn.tree import DecisionTreeClassifier as DTC
dtc = DTC(criterion='entropy') #建立決策樹(shù)模型骡楼,基于信息熵
dtc.fit(x, y) #訓(xùn)練模型
至此,決策樹(shù)模型已經(jīng)被訓(xùn)練稽鞭,下面想看看得到的決策數(shù)模型結(jié)構(gòu)圖鸟整,所以用到了:
#導(dǎo)入相關(guān)函數(shù),可視化決策樹(shù)朦蕴。
#導(dǎo)出的結(jié)果是一個(gè)dot文件篮条,需要安裝Graphviz才能將它轉(zhuǎn)換為pdf或png等格式弟头。、
from sklearn.tree import export_graphviz
with open(r"E:\PyProjects\DataSet\PyMining\Data\chapter5\demo\data/tree.dot", 'w',encoding='utf-8') as f:
f = export_graphviz(dtc, feature_names = data.iloc[:,:-1].columns, out_file = f)
生成tree.dot后兑燥,需要在這個(gè)dot文件中添加:
在cmd中通過(guò)命令: dot -Tpdf tree.dot -o tree2.pdf 將tree.dot轉(zhuǎn)變?yōu)閠ree2.pdf文件亮瓷,打開(kāi)這個(gè)pdf文件就可以看到生成的結(jié)構(gòu)樹(shù)。如下:
3. 人工神經(jīng)網(wǎng)絡(luò)
from keras.models import Sequential
from keras.layers.core import Dense, Activation
model = Sequential() #建立模型
model.add(Dense(input_dim = 3, output_dim = 10)) # x的shape是N,3,有3個(gè)特征
model.add(Activation('relu')) #用relu函數(shù)作為激活函數(shù)降瞳,能夠大幅提供準(zhǔn)確度
model.add(Dense(input_dim = 10, output_dim = 1))
model.add(Activation('sigmoid')) #由于是0-1輸出嘱支,用sigmoid函數(shù)作為激活函數(shù)
model.compile(loss = 'binary_crossentropy', optimizer = 'adam')
#編譯模型。由于我們做的是二元分類挣饥,所以我們指定損失函數(shù)為binary_crossentropy
#另外常見(jiàn)的損失函數(shù)還有mean_squared_error除师、categorical_crossentropy等,請(qǐng)閱讀幫助文件扔枫。
#求解方法我們指定用adam汛聚,還有sgd、rmsprop等可選
model.fit(x, y, nb_epoch = 1000, batch_size = 10) #訓(xùn)練模型短荐,學(xué)習(xí)一千次
yp = model.predict_classes(x).reshape(len(y)) #分類預(yù)測(cè)
# 使用混淆矩陣判斷ANN的準(zhǔn)確率
from sklearn.metrics import confusion_matrix #導(dǎo)入混淆矩陣函數(shù)
confusion_matrix(y, model.predict_classes(x)) #混淆矩陣
array([[ 0, 15, 1],
[ 0, 0, 0],
[ 0, 8, 10]], dtype=int64)
4. 分類與預(yù)測(cè)算法的評(píng)價(jià)
需要用測(cè)試集來(lái)判斷模型的好壞倚舀,對(duì)于回歸模型,通常用相對(duì)/絕對(duì)誤差忍宋,平均絕對(duì)誤差MAE痕貌,MSE,RMSE等指標(biāo)來(lái)衡量糠排,對(duì)于分類模型舵稠,可以使用識(shí)別準(zhǔn)確率acc, 召回率,F(xiàn)1值入宦,ROC曲線哺徊,混淆矩陣等來(lái)判斷。
5. 分類預(yù)測(cè)模型的特點(diǎn)
參考資料:
《Python數(shù)據(jù)分析和挖掘?qū)崙?zhàn)》張良均等