240 投稿
收錄了58篇文章 · 8人關(guān)注
  • 隨機(jī)森林如何處理缺失值

    序 RF中有相應(yīng)的缺失值處理方法蒿褂,本次記錄其兩種缺失值處理技巧 暴力填補(bǔ) Python中的na.roughfix包提供簡單的缺失值填補(bǔ)策略:對于...

  • Resize,w 360,h 240
    隨機(jī)森林如何評(píng)估特征重要性

    序 集成學(xué)習(xí)模型的一大特點(diǎn)是可以輸出特征重要性妥泉,特征重要性能夠在一定程度上輔助我們對特征進(jìn)行篩選,從而使得模型的魯棒性更好。 隨機(jī)森林中進(jìn)行特征...

  • Boosting

    序 boosting是集成學(xué)習(xí)中的一個(gè)大家族,本次記錄boosting的相關(guān)概念以及與bagging的區(qū)別。 boosting思想 Boosti...

  • Resize,w 360,h 240
    決策樹剪枝

    為何要剪枝 決策樹遞歸地構(gòu)建樹涯呻,直到不能繼續(xù)分裂下去為止,這樣的樹對于訓(xùn)練集可能擬合的較好腻要,但對于訓(xùn)練集可能產(chǎn)生過擬合現(xiàn)象复罐,原因是過多的考慮對訓(xùn)...

  • 集成學(xué)習(xí)

    序 本次以及后續(xù)幾次博客將陸續(xù)記錄關(guān)于集成學(xué)習(xí)模型的相關(guān)知識(shí)點(diǎn)。 Ensemble概述 集成學(xué)習(xí) 就是構(gòu)造若干模型并用它們的(加權(quán)預(yù)測/投票)值...

  • 模型方差與偏差

    序 面試過程中經(jīng)常會(huì)被問到關(guān)于方差和偏差的概念以及比對雄家。 偏差 偏差度量了學(xué)習(xí)算法的期望預(yù)測值與真實(shí)結(jié)果間的偏離程度效诅,也就是刻畫了模型本身的擬合...

  • Bagging與隨機(jī)森林

    序 集成學(xué)習(xí)大類中常見的有兩個(gè)子類:Bagging和Boosting。本次記錄一下Bagging以及其代表模型RandomForest。 Bag...

  • Resize,w 360,h 240
    樸素貝葉斯

    序 本次記錄樸素貝葉斯的相關(guān)原理乱投,并上一張手寫的面試級(jí)推導(dǎo)過程 樸素貝葉斯模型是什么咽笼? 樸素貝葉斯是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類方法。...

  • Resize,w 360,h 240
    決策樹

    序 本次記錄一下決策樹的相關(guān)概念以及思想戚炫,后面博客再貼上具體的算法原理 一句話介紹 決策樹是一種基本的分類與回歸的判別式模式剑刑,在分類問題中,表示...

  • Resize,w 360,h 240
    信息熵與基尼指數(shù)的關(guān)系

    序 熵的概念中有信息熵双肤、信息增益施掏、信息增益比、基尼指數(shù)茅糜,這些統(tǒng)統(tǒng)作為決策樹分裂的依據(jù)七芭,其中,我們需要知道信息熵與基尼指數(shù)的關(guān)系限匣。 信息熵與基尼指...

專題公告

收集秋招過程中抖苦,算法崗位同學(xué)的復(fù)習(xí)筆記或是感悟心得

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品