AdaboostClssifier Demo (超參數(shù)比較)

import matplotlib.pyplot as plt
import numpy as np
from sklearn import datasets,ensemble,model_selection

加載scikit-learn自帶的糖尿病數(shù)據(jù)集

  1. 數(shù)據(jù)集有442個(gè)樣本
  2. 每個(gè)樣本有10個(gè)特征
  3. 每個(gè)特征都是浮點(diǎn)數(shù)忘闻,數(shù)據(jù)都在-0.2-0.2之間
  4. 樣本的目標(biāo)在整數(shù)25-346之間
def load_data_regression():
    diabetes = datasets.load_diabetes()
    return model_selection.train_test_split(datasets.data,datasets.target,random_state = 0)

在下面的分類問題中,使用的是scikit-learn自帶的手寫識(shí)別數(shù)據(jù)集Digit Dataset

  1. 該數(shù)據(jù)集由1797張圖片組成
  2. 每張圖片都是8x8大小的手寫數(shù)字位圖
def load_data_classifier():
    digits = datasets.load_digits()
    return model_selection.train_test_split(digits.data,digits.target,random_state=0)
def test_AdaboostClassifier(*data):
    X_train,X_test,Y_train,Y_test = data
    clf = ensemble.AdaBoostClassifier(learning_rate=0.1)  ###默認(rèn)的基學(xué)習(xí)器是決策樹分類器
    clf.fit(X_train,Y_train)
    fig = plt.figure()
    ax = fig.add_subplot(1,1,1)
    estimators_num = len(clf.estimators_)
    X = range(1,estimators_num+1)
    ax.plot(list(X),list(clf.staged_score(X_train,Y_train)),label = "Training score")
    ax.plot(list(X),list(clf.staged_score(X_test,Y_test)),label = "Testing score")
    ax.set_xlabel("estimator num")
    ax.set_ylabel("score")
    ax.legend(loc="best")
    ax.set_title("AdaboostClassifier")
    plt.show()
X_train,X_test,Y_train,Y_test = load_data_classifier()
test_AdaboostClassifier(X_train,X_test,Y_train,Y_test)
output_10_0.png
運(yùn)行結(jié)果分析:
  1. 可以看到隨著算法的推進(jìn)橡庞,每一輪迭代都產(chǎn)生一個(gè)新的個(gè)體分類器被集成。此時(shí)的集成分類器的訓(xùn)練誤差和測試誤差都在下降选泻,對(duì)應(yīng)的準(zhǔn)確率在上升袱结。
  2. 當(dāng)個(gè)體分類器數(shù)量達(dá)到一定值時(shí),集成分類器的預(yù)測準(zhǔn)確率在一定范圍內(nèi)波動(dòng)茶宵,比較穩(wěn)定。
  3. 集成學(xué)習(xí)能很好地抵抗過擬合宗挥。

考察不同類型的個(gè)體分類器的影響

def test_AdaboostClassifier_base_classifier(*data):
    from sklearn.naive_bayes import GaussianNB    ###高斯貝葉斯分類器
    X_train,X_test,Y_train,Y_test = data
    fig = plt.figure()
    ax = fig.add_subplot(2,1,1)
    ########默認(rèn)的個(gè)體分類器#########
    clf = ensemble.AdaBoostClassifier(learning_rate=0.1)
    clf.fit(X_train,Y_train)
    estimators_num = len(clf.estimators_)
    X = range(1,estimators_num+1)
    ax.plot(list(X),list(clf.staged_score(X_train,Y_train)),label = "Training score")
    ax.plot(list(X),list(clf.staged_score(X_test,Y_test)),label = "Testing score")
    ax.set_xlabel("estimator num")
    ax.set_ylabel("score")
    ax.legend(loc="best")
    ax.set_ylim(0,1)
    ax.set_title("AdaboostClassifier with Decision Tree")
    #########Gaussian Naive Bayes 個(gè)體分類器 ############
    ax = fig.add_subplot(2,1,2)
    clf = ensemble.AdaBoostClassifier(learning_rate=0.1,base_estimator=GaussianNB())
    clf.fit(X_train,Y_train)
    estimators_num = len(clf.estimators_)
    X = range(1,estimators_num+1)
    ax.plot(list(X),list(clf.staged_score(X_train,Y_train)),label = "Training score")
    ax.plot(list(X),list(clf.staged_score(X_test,Y_test)),label = "Testing score")
    ax.set_xlabel("estimator num")
    ax.set_ylabel("score")
    ax.legend(loc="best")
    ax.set_ylim(0,1)
    ax.set_title("AdaboostClassifier with Gaussian Naive Bayes")
    plt.tight_layout()
    plt.show()
X_train,X_test,Y_train,Y_test = load_data_classifier()
test_AdaboostClassifier_base_classifier(X_train,X_test,Y_train,Y_test)
output_10_0.png
運(yùn)行結(jié)果分析:
  • 從比較結(jié)果來看乌庶,由于高斯分布貝葉斯個(gè)體分類器本身就是一個(gè)很強(qiáng)的分類器(即單個(gè)分類器的預(yù)測準(zhǔn)確率已經(jīng)非常好),所以它沒有一個(gè)明顯的預(yù)測準(zhǔn)確率提升的過程契耿,整體曲線都比較平緩瞒大。

考察學(xué)習(xí)率的影響

def test_AdaboostClassifier_learning_rate(*data):
    X_train,X_test,Y_train,Y_test = data
    learning_rates = np.linspace(0.01,1)  ###返回均勻分布的數(shù)字,默認(rèn)是50份
    fig = plt.figure()
    ax = fig.add_subplot(1,1,1)
    train_score = []
    test_score = []
    for learning_rate in learning_rates:
        clf = ensemble.AdaBoostClassifier(learning_rate=learning_rate,n_estimators=500)
        clf.fit(X_train,Y_train)
        train_score.append(clf.score(X_train,Y_train))
        test_score.append(clf.score(X_test,Y_test))
    ax.plot(learning_rates,train_score,label="Training score")
    ax.plot(learning_rates,test_score,label="Testing score")
    ax.set_xlabel("learning rates")
    ax.set_ylabel("score")
    ax.legend(loc="best")
    ax.set_title("AdaboostClassifier")
    plt.show()
X_train,X_test,Y_train,Y_test = load_data_classifier()
test_AdaboostClassifier_learning_rate(X_train,X_test,Y_train,Y_test)
output_14_0.png
運(yùn)行結(jié)果分析:
  1. 當(dāng)學(xué)習(xí)率較小時(shí)搪桂,測試準(zhǔn)確率和訓(xùn)練準(zhǔn)確率隨著學(xué)習(xí)率的增大而緩慢上升透敌。但當(dāng)學(xué)習(xí)率超過0.7以后,隨著學(xué)習(xí)率的上升踢械,迅速下降酗电。
  2. 通常比較小的學(xué)習(xí)率會(huì)要求更多數(shù)量的弱學(xué)習(xí)器從而能保證集成效果。
  3. 經(jīng)驗(yàn)表明:比較小的學(xué)習(xí)率能夠帶來更小的誤差内列。因此推薦學(xué)習(xí)率小于等于0.1撵术,同時(shí)選擇一個(gè)很大的n_estimators(因?yàn)樗惴赡茉谟?xùn)練誤差到達(dá)一定程度的時(shí)候,就停止繼續(xù)訓(xùn)練话瞧,這稱為'早停'-early stopping,此時(shí)真實(shí)的個(gè)體學(xué)習(xí)器數(shù)量會(huì)小于n_estimators)嫩与。

考察algorithm的影響

def test_AdaboostClassifier_algorithm(*data):
    X_train,X_test,Y_train,Y_test = data
    algorithms = ["SAMME.R","SAMME"]
    fig = plt.figure(figsize=(8,8))
    learning_rates = [0.05,0.1,0.5,0.9]
    for i,learning_rate in enumerate(learning_rates):
        ax = fig.add_subplot(2,2,i+1)
        for i,algorithm in enumerate(algorithms):
            clf = ensemble.AdaBoostClassifier(learning_rate=learning_rate,algorithm=algorithm)
            clf.fit(X_train,Y_train)
            estimators_num = len(clf.estimators_)
            X = range(1,estimators_num+1)
            ax.plot(list(X),list(clf.staged_score(X_train,Y_train)),label="%s:Training score"%algorithms[i])
            ax.plot(list(X),list(clf.staged_score(X_test,Y_test)),label="%s:Testing score"%algorithms[i])
            ax.set_xlabel("estimator num")
            ax.set_ylabel("score")
            ax.legend(loc="lower right")
            ax.set_title("learning rate:%f"%learning_rate)   
            plt.tight_layout()
    plt.tight_layout()
    plt.show()
X_train,X_test,Y_train,Y_test = load_data_classifier()
test_AdaboostClassifier_algorithm(X_train,X_test,Y_train,Y_test)
myplot.png
運(yùn)行結(jié)果分析
  1. 當(dāng)學(xué)習(xí)率較小時(shí),SAMME.R算法總是預(yù)測性能較好移稳。
  2. 當(dāng)學(xué)習(xí)率較大時(shí)蕴纳,SMME.R算法在個(gè)體分類器數(shù)量較少時(shí)預(yù)測性能較好,但在個(gè)體決策樹數(shù)量較多時(shí)預(yù)測性能較差个粱。這是因?yàn)镾AMME.R算法在個(gè)體分類器數(shù)量飽和狀態(tài)下的性能在學(xué)習(xí)率較大時(shí)會(huì)迅速下降古毛。
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市都许,隨后出現(xiàn)的幾起案子稻薇,更是在濱河造成了極大的恐慌,老刑警劉巖胶征,帶你破解...
    沈念sama閱讀 222,627評(píng)論 6 517
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件塞椎,死亡現(xiàn)場離奇詭異,居然都是意外死亡睛低,警方通過查閱死者的電腦和手機(jī)案狠,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,180評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門服傍,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人骂铁,你說我怎么就攤上這事吹零。” “怎么了拉庵?”我有些...
    開封第一講書人閱讀 169,346評(píng)論 0 362
  • 文/不壞的土叔 我叫張陵灿椅,是天一觀的道長。 經(jīng)常有香客問我钞支,道長茫蛹,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 60,097評(píng)論 1 300
  • 正文 為了忘掉前任烁挟,我火速辦了婚禮婴洼,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘信夫。我一直安慰自己窃蹋,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 69,100評(píng)論 6 398
  • 文/花漫 我一把揭開白布静稻。 她就那樣靜靜地躺著表伦,像睡著了一般磅摹。 火紅的嫁衣襯著肌膚如雪滚粟。 梳的紋絲不亂的頭發(fā)上相艇,一...
    開封第一講書人閱讀 52,696評(píng)論 1 312
  • 那天稚配,我揣著相機(jī)與錄音新思,去河邊找鬼垦细。 笑死捺典,一個(gè)胖子當(dāng)著我的面吹牛浅碾,可吹牛的內(nèi)容都是我干的大州。 我是一名探鬼主播,決...
    沈念sama閱讀 41,165評(píng)論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼垂谢,長吁一口氣:“原來是場噩夢(mèng)啊……” “哼厦画!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起滥朱,我...
    開封第一講書人閱讀 40,108評(píng)論 0 277
  • 序言:老撾萬榮一對(duì)情侶失蹤根暑,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后徙邻,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體排嫌,經(jīng)...
    沈念sama閱讀 46,646評(píng)論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,709評(píng)論 3 342
  • 正文 我和宋清朗相戀三年缰犁,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了淳地。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片怖糊。...
    茶點(diǎn)故事閱讀 40,861評(píng)論 1 353
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖颇象,靈堂內(nèi)的尸體忽然破棺而出蓬抄,到底是詐尸還是另有隱情,我是刑警寧澤夯到,帶...
    沈念sama閱讀 36,527評(píng)論 5 351
  • 正文 年R本政府宣布嚷缭,位于F島的核電站,受9級(jí)特大地震影響耍贾,放射性物質(zhì)發(fā)生泄漏阅爽。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,196評(píng)論 3 336
  • 文/蒙蒙 一荐开、第九天 我趴在偏房一處隱蔽的房頂上張望付翁。 院中可真熱鬧,春花似錦晃听、人聲如沸百侧。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,698評(píng)論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽佣渴。三九已至,卻和暖如春初斑,著一層夾襖步出監(jiān)牢的瞬間辛润,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,804評(píng)論 1 274
  • 我被黑心中介騙來泰國打工见秤, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留砂竖,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 49,287評(píng)論 3 379
  • 正文 我出身青樓鹃答,卻偏偏與公主長得像乎澄,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子测摔,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,860評(píng)論 2 361

推薦閱讀更多精彩內(nèi)容