240 發(fā)簡(jiǎn)信
IP屬地:陜西
  • Pytorch 數(shù)據(jù)加載器: Dataset 和 DataLoader

    為什么要用被碗? 習(xí)慣于自己實(shí)現(xiàn)業(yè)務(wù)邏輯的每一步笙以,以至于沒有意識(shí)去尋找框架本身自有的數(shù)據(jù)預(yù)處理方法贷洲,Pytorch的Dataset 和 DataLo...

  • Boosting

    序 boosting是集成學(xué)習(xí)中的一個(gè)大家族,本次記錄boosting的相關(guān)概念以及與bagging的區(qū)別坟漱。 boosting思想 Boosti...

  • Resize,w 360,h 240
    隨機(jī)森林如何評(píng)估特征重要性

    序 集成學(xué)習(xí)模型的一大特點(diǎn)是可以輸出特征重要性,特征重要性能夠在一定程度上輔助我們對(duì)特征進(jìn)行篩選,從而使得模型的魯棒性更好阵面。 隨機(jī)森林中進(jìn)行特征...

  • 隨機(jī)森林如何處理缺失值

    序 RF中有相應(yīng)的缺失值處理方法,本次記錄其兩種缺失值處理技巧 暴力填補(bǔ) Python中的na.roughfix包提供簡(jiǎn)單的缺失值填補(bǔ)策略:對(duì)于...

  • Bagging與隨機(jī)森林

    序 集成學(xué)習(xí)大類中常見的有兩個(gè)子類:Bagging和Boosting洪鸭。本次記錄一下Bagging以及其代表模型RandomForest样刷。 Bag...

  • 模型方差與偏差

    序 面試過程中經(jīng)常會(huì)被問到關(guān)于方差和偏差的概念以及比對(duì)。 偏差 偏差度量了學(xué)習(xí)算法的期望預(yù)測(cè)值與真實(shí)結(jié)果間的偏離程度览爵,也就是刻畫了模型本身的擬合...

  • 集成學(xué)習(xí)

    序 本次以及后續(xù)幾次博客將陸續(xù)記錄關(guān)于集成學(xué)習(xí)模型的相關(guān)知識(shí)點(diǎn)置鼻。 Ensemble概述 集成學(xué)習(xí) 就是構(gòu)造若干模型并用它們的(加權(quán)預(yù)測(cè)/投票)值...

  • Resize,w 360,h 240
    決策樹剪枝

    為何要剪枝 決策樹遞歸地構(gòu)建樹,直到不能繼續(xù)分裂下去為止蜓竹,這樣的樹對(duì)于訓(xùn)練集可能擬合的較好箕母,但對(duì)于訓(xùn)練集可能產(chǎn)生過擬合現(xiàn)象储藐,原因是過多的考慮對(duì)訓(xùn)...

  • Resize,w 360,h 240
    ID3、C4.5嘶是、CART

    序 其實(shí)不同的決策樹學(xué)習(xí)算法只是它們選擇特征的依據(jù)不同钙勃,決策樹的生成過程都是一樣的(根據(jù)當(dāng)前環(huán)境對(duì)特征進(jìn)行貪婪的選擇)。 ID3算法的核心是在決...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品