利用 hyperopt 為 lightgbm 自動(dòng)調(diào)參

lightgbm 為 GBDT 算法的又一個(gè)工程實(shí)現(xiàn)普筹,相比于 xgboost,lightgbm 訓(xùn)練效率更高,同時(shí)效果同樣優(yōu)秀野宜。但是其參數(shù)眾多扫步,人工調(diào)參不僅繁瑣,效果也未必能獲得最優(yōu)匈子。
hyperopt 是 python 中的一個(gè)用于"分布式異步算法組態(tài)/超參數(shù)優(yōu)化"的類庫河胎,廣泛意義上,可以將帶有超參數(shù)的模型看作是一個(gè)必然的非凸函數(shù)旬牲,因此hyperopt 幾乎可以穩(wěn)定的獲取比手工更加合理的調(diào)參結(jié)果仿粹。

0. 相關(guān)python庫的載入

from sklearn.feature_extraction.text import CountVectorizer, TfidfVectorizer
from sklearn.preprocessing import OneHotEncoder, RobustScaler
from sklearn.base import BaseEstimator, TransformerMixin
from sklearn.model_selection import train_test_split
from hyperopt import hp, fmin, tpe, partial
from pyspark.sql import SparkSession
from sklearn import metrics
import lightgbm as lgb
import pandas as pd
import numpy as np
import pickle
import base64
import sys

1. 數(shù)據(jù)準(zhǔn)備

首先定義一個(gè)sklearn 里 pipeline 方式的數(shù)據(jù)轉(zhuǎn)換類:

class FeatureProcess(BaseEstimator, TransformerMixin):
    """
    定義數(shù)據(jù)轉(zhuǎn)換的類,使用方式如下:
    pipeline = FeatureProcess(categorical_cols, numerical_cols, label_cols)
    pipiline.fit(train_data)
    X = pipeline.transform(train_data)
    其中 train_data 為 pandas 的 dataframe
    """

    def __init__(self, categorical_cols=None, numerical_cols=None, label_cols=None):
        """
        :param categorical_cols: 類別特征
        :param numerical_cols: 數(shù)值類特征
        :param label_cols: 標(biāo)簽類特征 格式為空格分隔的字符串
        """
        self.categorical_cols = categorical_cols
        self.numerical_cols = numerical_cols
        self.label_cols = label_cols
        self.onehot = None
        self.scaler = None
        self.labels_pipe = {}
        self.stop_words = {'null', 'nan'}
        self.feature_names = None

    def _get_onehot_feature_names(self, categorical_cols):
        """
        返回 onthot 后的特征名原茅,定義為 原始列名+onthot對(duì)應(yīng)的值
        :param categorical_cols:
        :return:
        """
        feature_names = list()
        for col, values in zip(categorical_cols, self.onehot.categories_):
            for val in values:
                feature_names.append('%s_%s' % (col, val))
        return feature_names

    def fit(self, df, y=None):
        # 空值處理
        df = df.replace({'': np.NAN})
        # 類型轉(zhuǎn)換
        df[self.categorical_cols + self.label_cols] = df[self.categorical_cols + self.label_cols].astype(str)
        df[self.numerical_cols] = df[self.numerical_cols].astype(float).replace(float('inf'), 0)
        # onehot處理
        self.onehot = OneHotEncoder(handle_unknown='ignore', sparse=False).fit(df[self.categorical_cols])
        # 標(biāo)簽數(shù)據(jù)處理
        label_feature_names = []
        for label_col in self.label_cols:
            self.labels_pipe[label_col] = TfidfVectorizer(stop_words=self.stop_words, min_df=500).fit(df[label_col].values)
            label_feature_names.extend(sorted(self.labels_pipe[label_col].vocabulary_,
                                              key=lambda x: self.labels_pipe[label_col].vocabulary_[x]))
        # 去掉最大值
        self.scaler = RobustScaler(with_centering=False, with_scaling=False, quantile_range=(1, 99)).fit(
            df[self.numerical_cols])
        # feature_names
        self.feature_names = self._get_onehot_feature_names(self.categorical_cols) + self.numerical_cols + label_feature_names
        return self

    def transform(self, df, y=None):
        # 空值處理
        df = df.replace({'': np.NAN})
        # 類型轉(zhuǎn)換
        df[self.categorical_cols + self.label_cols] = df[self.categorical_cols + self.label_cols].astype(str)
        df[self.numerical_cols] = df[self.numerical_cols].astype(float).replace(float('inf'), 0)
        # 數(shù)據(jù)轉(zhuǎn)換
        onehot_data = self.onehot.transform(df[self.categorical_cols])
        scaler_data = self.scaler.transform(df[self.numerical_cols])
        # 標(biāo)簽數(shù)據(jù)處理
        label_data = np.concatenate([self.labels_pipe[label_col].transform(df[label_col].values).toarray() 
                                     for label_col in self.label_cols], axis=1)
        data = np.c_[onehot_data, scaler_data, label_data]
        return data

    def fit_transform(self, df, y=None):
        return self.fit(df, y).transform(df, y)

2. 定義參數(shù)空間

hp.randint 產(chǎn)生的是從0開始的整數(shù),所以定義了 args_tranform 函數(shù)進(jìn)行轉(zhuǎn)換堕仔。

# 自定義hyperopt的參數(shù)空間
space = {"learning_rate": hp.randint("learning_rate", 7),
         "max_depth": hp.randint("max_depth", 10),
         "num_leaves": hp.randint("num_leaves", 10),
         "bagging_fraction": hp.randint("bagging_fraction", 5),
         "bagging_freq": hp.randint("bagging_freq", 9),
         "feature_fraction": hp.randint("feature_fraction", 5),
         "lambda_l1": hp.randint("lambda_l1", 6),
         "lambda_l2": hp.randint("lambda_l2", 8),
         "cat_smooth": hp.randint("cat_smooth", 20),
         "min_data_in_leaf": hp.randint("min_data_in_leaf", 20),
         }


def args_tranform(args_dict, is_print=False):
    params = dict()

    params["learning_rate"] = args_dict["learning_rate"] * 0.02 + 0.01
    params["max_depth"] = args_dict["max_depth"] + 3
    params["num_leaves"] = args_dict["num_leaves"] * 5 + 5
    params["bagging_fraction"] = args_dict["bagging_fraction"] * 0.1 + 0.2
    params["bagging_freq"] = args_dict["bagging_freq"] + 1
    params["feature_fraction"] = args_dict["feature_fraction"] * 0.1 + 0.5
    params["lambda_l1"] = args_dict["lambda_l1"] * 0.1 + 0.1
    params["lambda_l2"] = args_dict["lambda_l2"] * 5
    params["cat_smooth"] = args_dict["cat_smooth"] + 1
    params["min_data_in_leaf"] = args_dict["min_data_in_leaf"] * 20 + 50

    params["boosting_type"] = 'gbdt'
    params["objective"] = 'binary'
    params["metric"] = 'auc'
    params["verbosity"] = 0
    params["seed"] = 42
    params["num_threads"] = 16

    if is_print:
        print(params)

    return params

3. 構(gòu)建模型工廠和目標(biāo)函數(shù)

目標(biāo)函數(shù)我增加了控制過擬合的參數(shù)擂橘,這樣能保證 train_aucval_auc 的差值不會(huì)過大。

def model_fit(argsDict, rate=0.2):
    params = args_tranform(argsDict)

    model = lgb.train(params, dtrain, 500, dval, early_stopping_rounds=20, verbose_eval=False)

    return get_score(model, rate)


def get_score(model, rate):
    """
    :param model:
    :param rate: 控制過擬合的參數(shù)摩骨,參數(shù)越大表示越嚴(yán)格
    :return:
    """
    y_val_pred = model.predict(X_val, num_iteration=model.best_iteration)
    y_train_pred = model.predict(X_train, num_iteration=model.best_iteration)
    train_auc = metrics.roc_auc_score(y_train, y_train_pred)
    val_auc = metrics.roc_auc_score(y_val, y_val_pred)

    return -val_auc + rate * abs(train_auc - val_auc)

4. 模型訓(xùn)練

通過spark讀取訓(xùn)練數(shù)據(jù)通贞,最后將模型和數(shù)據(jù)轉(zhuǎn)換的pipeline一起寫入到集群文件,也可以將最后結(jié)果寫入到數(shù)據(jù)庫中恼五。

if __name__ == '__main__':
    df = spark.sql(sql).toPandas()
    # 測(cè)試集劃分
    train_set, test_set = train_test_split(df, test_size=0.15, shuffle=True, stratify=df['target'],
                                           random_state=123)
    pipeline = FeatureProcess(categorical_cols, numerical_cols, label_cols)
    X = pipeline.fit_transform(train_set.drop('target', axis=1))
    y = train_set['target']

    X_test = pipeline.transform(test_set.drop('target', axis=1))
    y_test = test_set['target']
    feature_names = pipeline.feature_names
    # 訓(xùn)練集和驗(yàn)證集劃分
    X_train, X_val, y_train, y_val = train_test_split(X, y.values, test_size=0.15, shuffle=True, stratify=y, random_state=123)

    dtrain = lgb.Dataset(data=X_train, label=y_train)
    dval = lgb.Dataset(data=X_val, label=y_val, reference=dtrain)
    valid_sets = [dtrain, dval]
    # 模型訓(xùn)練
    algo = partial(tpe.suggest, n_startup_jobs=-1)
    best = fmin(model_fit, space, algo=algo, max_evals=50, show_progressbar=True)
    lgb_params = args_tranform(best, is_print=True)
    best_model = lgb.train(lgb_params, dtrain, 1500, valid_sets, ['train', 'eval'], early_stopping_rounds=50,
                           verbose_eval=200)
    # 結(jié)果指標(biāo)
    metric_score = best_model.best_score
    metric_score['test'] = {}
    y_prob = best_model.predict(X_test, num_iteration=best_model.best_iteration)
    metric_score['test']['auc'] = metrics.roc_auc_score(y_test, y_prob)
    metric_score['test']['acc'] = metrics.accuracy_score(y_test, (y_prob >= 0.5).astype(int))

    # 保存
    res_df = pd.DataFrame()
    res_df['model_name'] = ['model_v1.0']
    res_df['pipeline'] = base64.b64encode(pickle.dumps(pipeline)).strip().decode('utf8')
    res_df['model'] = base64.b64encode(pickle.dumps(best_model)).strip().decode('utf8')
    res_df['metric_score'] = str(metric_score)

    sparkDF = spark.createDataFrame(res_df)
    sparkDF.write.format('csv').save(model_path)
    # sparkDF.createOrReplaceTempView("model_result")
    # spark.sql(insert_sql)
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末昌罩,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子灾馒,更是在濱河造成了極大的恐慌茎用,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,194評(píng)論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件睬罗,死亡現(xiàn)場(chǎng)離奇詭異轨功,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)容达,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,058評(píng)論 2 385
  • 文/潘曉璐 我一進(jìn)店門古涧,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人花盐,你說我怎么就攤上這事羡滑。” “怎么了算芯?”我有些...
    開封第一講書人閱讀 156,780評(píng)論 0 346
  • 文/不壞的土叔 我叫張陵柒昏,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我也祠,道長(zhǎng)昙楚,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,388評(píng)論 1 283
  • 正文 為了忘掉前任诈嘿,我火速辦了婚禮堪旧,結(jié)果婚禮上削葱,老公的妹妹穿的比我還像新娘。我一直安慰自己淳梦,他們只是感情好析砸,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,430評(píng)論 5 384
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著爆袍,像睡著了一般首繁。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上陨囊,一...
    開封第一講書人閱讀 49,764評(píng)論 1 290
  • 那天弦疮,我揣著相機(jī)與錄音,去河邊找鬼蜘醋。 笑死胁塞,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的压语。 我是一名探鬼主播啸罢,決...
    沈念sama閱讀 38,907評(píng)論 3 406
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼胎食!你這毒婦竟也來了扰才?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,679評(píng)論 0 266
  • 序言:老撾萬榮一對(duì)情侶失蹤厕怜,失蹤者是張志新(化名)和其女友劉穎衩匣,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體酣倾,經(jīng)...
    沈念sama閱讀 44,122評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡舵揭,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,459評(píng)論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了躁锡。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片午绳。...
    茶點(diǎn)故事閱讀 38,605評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖映之,靈堂內(nèi)的尸體忽然破棺而出拦焚,到底是詐尸還是另有隱情,我是刑警寧澤杠输,帶...
    沈念sama閱讀 34,270評(píng)論 4 329
  • 正文 年R本政府宣布赎败,位于F島的核電站,受9級(jí)特大地震影響蠢甲,放射性物質(zhì)發(fā)生泄漏僵刮。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,867評(píng)論 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望搞糕。 院中可真熱鬧勇吊,春花似錦、人聲如沸窍仰。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,734評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽驹吮。三九已至针史,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間碟狞,已是汗流浹背啄枕。 一陣腳步聲響...
    開封第一講書人閱讀 31,961評(píng)論 1 265
  • 我被黑心中介騙來泰國(guó)打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留族沃,地道東北人射亏。 一個(gè)月前我還...
    沈念sama閱讀 46,297評(píng)論 2 360
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像竭业,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子及舍,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,472評(píng)論 2 348