特征選擇的好處 便于理解和可視化數(shù)據(jù),降低計算及存儲壓力帝雇,對抗維數(shù)災難提高準確率暮现,增加模型泛化能力吨瞎; 總結(jié)一 三大主流方法:過濾式校读,包裹式脖母,嵌入...
聊聊機器學習中的損失函數(shù) 機器學習中的損失函數(shù) 平方損失(線性回歸) 對數(shù)損失(交叉熵損失 softmax, logstic) 最大熵原理(引出...
簡書:決策樹會有哪些特性澡刹?知乎:決策樹是如何處理不完整數(shù)據(jù)的呻征? 1. 連續(xù)值如何劃分? C4.5:Information Gain (Ratio...
如何解決類別不平衡問題怕犁? 對大類欠采樣,或者對小類過采樣己莺; 設置不同的學習率奏甫,大類權(quán)值小,小類權(quán)值大凌受; 使用一些對樣本分布不敏感的評價指標阵子,F(xiàn)1...
博客:http://liuchengxu.org/blog-cn/posts/bias-variance/ 誤差一般包含偏差,方差和噪聲 偏差:...
過擬合的原因 數(shù)據(jù)方面胜蛉,比如數(shù)據(jù)不規(guī)范挠进,數(shù)據(jù)量少色乾,還有可能是數(shù)據(jù)穿越(統(tǒng)計特征用到了未來的信息或者標簽信息); 算法方面领突,模型過于復雜暖璧; 防止過...
最大似然估計 似然函數(shù):這個函數(shù)反應的是在不同的參數(shù)θ取值下,取得當前這個樣本集的可能性君旦,因此稱為參數(shù)θ相對于樣本集X的似然函數(shù)澎办。 最大似然估計...
知乎問題:https://www.zhihu.com/question/31989952 為什么LR需要歸一化或者取對數(shù)? 歸一化:可以提高收斂...
博客:http://blog.csdn.net/zouxy09/article/details/24971995博客:http://blog.c...