特征選擇的好處 便于理解和可視化數(shù)據(jù)捐寥,降低計(jì)算及存儲(chǔ)壓力,對(duì)抗維數(shù)災(zāi)難提高準(zhǔn)確率我注,增加模型泛化能力; 總結(jié)一 三大主流方法:過濾式迟隅,包裹式但骨,嵌入...
聊聊機(jī)器學(xué)習(xí)中的損失函數(shù) 機(jī)器學(xué)習(xí)中的損失函數(shù) 平方損失(線性回歸) 對(duì)數(shù)損失(交叉熵?fù)p失 softmax, logstic) 最大熵原理(引出...
簡(jiǎn)書:決策樹會(huì)有哪些特性智袭?知乎:決策樹是如何處理不完整數(shù)據(jù)的奔缠? 1. 連續(xù)值如何劃分? C4.5:Information Gain (Ratio...
如何解決類別不平衡問題校哎? 對(duì)大類欠采樣,或者對(duì)小類過采樣箫锤; 設(shè)置不同的學(xué)習(xí)率贬蛙,大類權(quán)值小雨女,小類權(quán)值大; 使用一些對(duì)樣本分布不敏感的評(píng)價(jià)指標(biāo)阳准,F(xiàn)1...
博客:http://liuchengxu.org/blog-cn/posts/bias-variance/ 誤差一般包含偏差氛堕,方差和噪聲 偏差:...
過擬合的原因 數(shù)據(jù)方面,比如數(shù)據(jù)不規(guī)范野蝇,數(shù)據(jù)量少讼稚,還有可能是數(shù)據(jù)穿越(統(tǒng)計(jì)特征用到了未來(lái)的信息或者標(biāo)簽信息); 算法方面绕沈,模型過于復(fù)雜锐想; 防止過...
最大似然估計(jì) 似然函數(shù):這個(gè)函數(shù)反應(yīng)的是在不同的參數(shù)θ取值下,取得當(dāng)前這個(gè)樣本集的可能性乍狐,因此稱為參數(shù)θ相對(duì)于樣本集X的似然函數(shù)赠摇。 最大似然估計(jì)...
知乎問題:https://www.zhihu.com/question/31989952 為什么LR需要?dú)w一化或者取對(duì)數(shù)? 歸一化:可以提高收斂...
博客:http://blog.csdn.net/zouxy09/article/details/24971995博客:http://blog.c...