xgboost以及l(fā)ightgbm的實現(xiàn)

1.導入機器學習常用的包

# 從sklearn 調(diào)入所需要的包
from sklearn import datasets
from sklearn.model_selection import train_test_split #數(shù)據(jù)分隔出訓練集和驗證集
import xgboost as xgb
import numpy as np
import pandas as pd
#導入精度和召回
from sklearn.metrics import precision_score, recall_score

對數(shù)據(jù)進行類型轉換以及切分

iris = datasets.load_iris()
data = iris.data
label = iris.target
print(pd.DataFrame(data).head())
print(pd.DataFrame(label).head())
data1 = pd.DataFrame(data)
## 花萼長寬花瓣長寬
data1.columns = ['sepal_l','sepal_w','petal_l','petal_w']
print(data1.head())
label1 =pd.DataFrame(label)
label1.columns=['label']
print(label1.head())
#注意這里data label順序是一致的,千萬別打亂

# 劃分訓練集和測試集
train_x, test_x, train_y, test_y = train_test_split(data1.values, label1.values, test_size=0.3, random_state=42)
print("訓練集長度:", len(train_x))
print("測試集長度:", len(test_x))

2.xgboost 的兩種形式的使用方法

  1. 原生態(tài)的使用方法
# 轉換為DMatrix數(shù)據(jù)格式
# dtrain = xgb.DMatrix(train_x, label=train_y)
test_data = xgb.DMatrix(test_x, label=test_y)
# 設置參數(shù)
###multi:softmax是使用softmax后產(chǎn)生的分類結果,而multi:softprob是輸出的概率矩陣仑氛。

xgb_params = {
    'eta': 0.3, #學習率
    'silent': True,  # 輸出運行訊息
    'objective': 'multi:softprob',  # 使用多分類生成概率矩陣格式'multi:softmax',multi:softprob
    'num_class': 3,  # 共有幾個類別
    'max_depth': 3  # 深度
}
num_round = 20  # 跑的步數(shù)

# 模型訓練
model = xgb.train(xgb_params,xgb.DMatrix(train_x, label=train_y), num_round)
# 模型預測
test_pre = model.predict(test_data)

print(test_pre[:5])

# 選擇表示最高概率的列
test_pre_1 = np.asarray([np.argmax(row) for row in test_pre])
print("test的預測結果:",test_pre_1)

# 模型評估
print('驗證集精準率:',precision_score(test_y, test_pre_1, average='macro')) 
print('驗證集召回率:',recall_score(test_y, test_pre_1, average='macro'))  

這種方法需要將數(shù)據(jù)轉化為DMatrix這種xgb專有的數(shù)據(jù)類型,其中的train_x等期贫,為DataFrame的數(shù)據(jù)類型

  1. 簡化后的調(diào)用方法
from xgboost import XGBClassifier
model = XGBClassifier(
        learning_rate=0.01,#學習率
        n_estimators=3000,#步長
        max_depth=4,#深度
        objective='binary:logistic',#此處表明是二分類
        seed=27
    )
model.fit(train_x,train_y)

# 預測
#輸出預測結果
test_pre2 = model.predict(test_x)
print(test_pre2)
# 模型評估
print('驗證集精準率:',precision_score(test_y, test_pre2, average='macro')) 
print('驗證集召回率:',recall_score(test_y, test_pre2, average='macro'))  

3.lightgbm的兩種形式的調(diào)用方法

  1. 原生態(tài)的調(diào)用方法
# 轉換為DMatrix數(shù)據(jù)格式
train_data = lgb.Dataset(train_x,train_y)
test_data = lgb.Dataset(test_x,test_y)
# 設置參數(shù)
lgb_params = {
   'boosting_type': 'gbdt',  
    'objective': 'multiclass',
    'metric': 'multi_error', 
    'verbose': 1 , # <0 顯示致命的, =0 顯示錯誤 (警告), >0 顯示信息
     'num_class':3 #lightgbm.basic.LightGBMError: b'Number of classes should be specified and greater than 1 for multiclass training'
    }

# 模型訓練
clf = lgb.train(lgb_params,train_data,num_boost_round =10,
                valid_sets = [train_data,test_data], #驗證集
                verbose_eval = 10)
# 模型預測
test_pre = clf.predict(test_x, num_iteration=clf.best_iteration)
# print(test_pre)
print(test_pre[:5])

# 選擇表示最高概率的列
test_pre_1 = np.asarray([np.argmax(row) for row in test_pre])
print("test的預測結果:",test_pre_1)

# 模型評估
print('驗證集精準率:',precision_score(test_y, test_pre_1, average='macro')) 
print('驗證集召回率:',recall_score(test_y, test_pre_1, average='macro')) 
  1. 簡化后的調(diào)用方法
import lightgbm as lgb
#from lightgbm import LGBMClassifier 再進行調(diào)用可以得到相同的效果

lgb_params = {
    'learning_rate':0.1,
    'max_bin':150,
    'num_leaves':32,    
    'max_depth':11,  
    'objective':'multiclass',
    'n_estimators':300
}
model=lgb.LGBMClassifier(**lgb_params)

model.fit(train_x,train_y)
# 預測
#輸出預測結果
test_pre2 = model.predict(test_x)
print(test_pre2)
# 模型評估
print('驗證集精準率:',precision_score(test_y, test_pre2, average='macro')) 
print('驗證集召回率:',recall_score(test_y, test_pre2, average='macro'))  

總結:

  • lgb.train中正則化參數(shù)為"lambda_l1", "lambda_l1"辖所,sklearn中則為'reg_alpha', 'reg_lambda'。
  • 多分類時lgb.train除了'objective':'multiclass',還要指定"num_class":5,而sklearn接口只需要指定'objective':'multiclass'。
  • 迭代次數(shù)在sklearn中是'n_estimators':20跳座,在初始化模型時指定
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市泣矛,隨后出現(xiàn)的幾起案子疲眷,更是在濱河造成了極大的恐慌,老刑警劉巖您朽,帶你破解...
    沈念sama閱讀 222,252評論 6 516
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件狂丝,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機几颜,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,886評論 3 399
  • 文/潘曉璐 我一進店門倍试,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人蛋哭,你說我怎么就攤上這事县习。” “怎么了谆趾?”我有些...
    開封第一講書人閱讀 168,814評論 0 361
  • 文/不壞的土叔 我叫張陵躁愿,是天一觀的道長。 經(jīng)常有香客問我棺妓,道長攘已,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,869評論 1 299
  • 正文 為了忘掉前任怜跑,我火速辦了婚禮样勃,結果婚禮上,老公的妹妹穿的比我還像新娘性芬。我一直安慰自己峡眶,他們只是感情好,可當我...
    茶點故事閱讀 68,888評論 6 398
  • 文/花漫 我一把揭開白布植锉。 她就那樣靜靜地躺著辫樱,像睡著了一般。 火紅的嫁衣襯著肌膚如雪俊庇。 梳的紋絲不亂的頭發(fā)上狮暑,一...
    開封第一講書人閱讀 52,475評論 1 312
  • 那天,我揣著相機與錄音辉饱,去河邊找鬼搬男。 笑死,一個胖子當著我的面吹牛彭沼,可吹牛的內(nèi)容都是我干的缔逛。 我是一名探鬼主播,決...
    沈念sama閱讀 41,010評論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼姓惑,長吁一口氣:“原來是場噩夢啊……” “哼褐奴!你這毒婦竟也來了?” 一聲冷哼從身側響起于毙,我...
    開封第一講書人閱讀 39,924評論 0 277
  • 序言:老撾萬榮一對情侶失蹤敦冬,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后望众,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體匪补,經(jīng)...
    沈念sama閱讀 46,469評論 1 319
  • 正文 獨居荒郊野嶺守林人離奇死亡伞辛,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,552評論 3 342
  • 正文 我和宋清朗相戀三年烂翰,在試婚紗的時候發(fā)現(xiàn)自己被綠了夯缺。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,680評論 1 353
  • 序言:一個原本活蹦亂跳的男人離奇死亡甘耿,死狀恐怖踊兜,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情佳恬,我是刑警寧澤捏境,帶...
    沈念sama閱讀 36,362評論 5 351
  • 正文 年R本政府宣布,位于F島的核電站毁葱,受9級特大地震影響垫言,放射性物質發(fā)生泄漏。R本人自食惡果不足惜倾剿,卻給世界環(huán)境...
    茶點故事閱讀 42,037評論 3 335
  • 文/蒙蒙 一筷频、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧前痘,春花似錦凛捏、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,519評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至最欠,卻和暖如春示罗,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背芝硬。 一陣腳步聲響...
    開封第一講書人閱讀 33,621評論 1 274
  • 我被黑心中介騙來泰國打工蚜点, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人吵取。 一個月前我還...
    沈念sama閱讀 49,099評論 3 378
  • 正文 我出身青樓禽额,卻偏偏與公主長得像,于是被迫代替她去往敵國和親皮官。 傳聞我的和親對象是個殘疾皇子脯倒,可洞房花燭夜當晚...
    茶點故事閱讀 45,691評論 2 361

推薦閱讀更多精彩內(nèi)容