240 發(fā)簡(jiǎn)信
IP屬地:北京
  • 特征選擇的方法

    特征選擇的好處 便于理解和可視化數(shù)據(jù)捐寥,降低計(jì)算及存儲(chǔ)壓力,對(duì)抗維數(shù)災(zāi)難提高準(zhǔn)確率我注,增加模型泛化能力; 總結(jié)一 三大主流方法:過濾式迟隅,包裹式但骨,嵌入...

  • 損失函數(shù)

    聊聊機(jī)器學(xué)習(xí)中的損失函數(shù) 機(jī)器學(xué)習(xí)中的損失函數(shù) 平方損失(線性回歸) 對(duì)數(shù)損失(交叉熵?fù)p失 softmax, logstic) 最大熵原理(引出...

  • 決策樹處理連續(xù)值,缺失值

    簡(jiǎn)書:決策樹會(huì)有哪些特性智袭?知乎:決策樹是如何處理不完整數(shù)據(jù)的奔缠? 1. 連續(xù)值如何劃分? C4.5:Information Gain (Ratio...

  • 如何解決類別不平衡問題吼野?

    如何解決類別不平衡問題校哎? 對(duì)大類欠采樣,或者對(duì)小類過采樣箫锤; 設(shè)置不同的學(xué)習(xí)率贬蛙,大類權(quán)值小雨女,小類權(quán)值大; 使用一些對(duì)樣本分布不敏感的評(píng)價(jià)指標(biāo)阳准,F(xiàn)1...

  • Resize,w 360,h 240
    方差和偏差

    博客:http://liuchengxu.org/blog-cn/posts/bias-variance/ 誤差一般包含偏差氛堕,方差和噪聲 偏差:...

  • 過擬合原因和方法

    過擬合的原因 數(shù)據(jù)方面,比如數(shù)據(jù)不規(guī)范野蝇,數(shù)據(jù)量少讼稚,還有可能是數(shù)據(jù)穿越(統(tǒng)計(jì)特征用到了未來(lái)的信息或者標(biāo)簽信息); 算法方面绕沈,模型過于復(fù)雜锐想; 防止過...

  • 極大似然估計(jì)&最小二乘

    最大似然估計(jì) 似然函數(shù):這個(gè)函數(shù)反應(yīng)的是在不同的參數(shù)θ取值下,取得當(dāng)前這個(gè)樣本集的可能性乍狐,因此稱為參數(shù)θ相對(duì)于樣本集X的似然函數(shù)赠摇。 最大似然估計(jì)...

  • LR模型的特征歸一化和離散化

    知乎問題:https://www.zhihu.com/question/31989952 為什么LR需要?dú)w一化或者取對(duì)數(shù)? 歸一化:可以提高收斂...

  • Resize,w 360,h 240
    L1和L2正則直觀理解

    博客:http://blog.csdn.net/zouxy09/article/details/24971995博客:http://blog.c...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品