這本書主講的內(nèi)容包括: 1.統(tǒng)計(jì)學(xué)習(xí)的定義叽唱、研究對(duì)象與方法态罪; 2.監(jiān)督學(xué)習(xí) 3.統(tǒng)計(jì)學(xué)習(xí)方法的三要素:方法=模型+策略+算法 4.介紹模型選擇地消,包括正則化、交叉驗(yàn)證與學(xué)習(xí)的泛...
這本書主講的內(nèi)容包括: 1.統(tǒng)計(jì)學(xué)習(xí)的定義叽唱、研究對(duì)象與方法态罪; 2.監(jiān)督學(xué)習(xí) 3.統(tǒng)計(jì)學(xué)習(xí)方法的三要素:方法=模型+策略+算法 4.介紹模型選擇地消,包括正則化、交叉驗(yàn)證與學(xué)習(xí)的泛...
最近開(kāi)始研究計(jì)算廣告相關(guān)的東西了傅瞻,那么首先我們要弄懂計(jì)算廣告中一些常見(jiàn)的概念踢代,本文就讓我們一起來(lái)整理下吧。 主要參考的兩本書:《計(jì)算廣告》和 《互聯(lián)網(wǎng)廣告的市場(chǎng)設(shè)計(jì)》 1嗅骄、廣...
2019-4-25 09:13 ~~思路持續(xù)更新I銮搿!更胖!---作者硬件:內(nèi)存:8g/ cpu:i5-4代 Attentionn跆! 作者會(huì)不定時(shí)更新內(nèi)容却妨,因?yàn)殡S著對(duì)賽題的理解會(huì)發(fā)...
@YYLin_AI 我也想知道用戶數(shù)據(jù)怎么怎么用
2019騰訊廣告算法大賽思路~~更新啦~~2019/4/252019-4-25 09:13 ~~思路持續(xù)更新6稹!彪标!---作者硬件:內(nèi)存:8g/ cpu:i5-4代 Attention1度ā! 作者會(huì)不定時(shí)更新內(nèi)容捞烟,因?yàn)殡S著對(duì)賽題的理解會(huì)發(fā)...
時(shí)間序列概念 1.EDA探索性數(shù)據(jù)分析目的是最大化對(duì)數(shù)據(jù)的直覺(jué)薄声,完成這個(gè)事情的方法只能是結(jié)合統(tǒng)計(jì)學(xué)的圖形以各種形式展現(xiàn)出來(lái)。通過(guò)EDA可以實(shí)現(xiàn): 1)得到數(shù)據(jù)的直觀表現(xiàn) 2)...
一题画、什么是隨機(jī)森林 二默辨、隨機(jī)森林的兩個(gè)隨機(jī) 三、隨機(jī)森林算法過(guò)程 四苍息、為什么如此受歡迎 五缩幸、隨機(jī)森林算法的優(yōu)缺點(diǎn) 六、RF特征選擇 *********************...
一竞思、什么是Xgboost 二表谊、Xgboost的基本原理 三、Xgboost的工作實(shí)例 四衙四、算法的優(yōu)缺點(diǎn) ***********************************...
一铃肯、什么是GBDT 二、GBDT與傳統(tǒng)Adaboost的不同之處 三传蹈、GBDT的負(fù)梯度擬合 四押逼、GBDT算法流程 五步藕、GBDT工作過(guò)程實(shí)例 六、GBDT常用損失函數(shù) 七挑格、算法...
一雾消、集成學(xué)習(xí)的概述 集成學(xué)習(xí)(ensemble learning)本身不是一個(gè)單獨(dú)的機(jī)器學(xué)習(xí)算法,而是通過(guò)構(gòu)建并結(jié)合多個(gè)機(jī)器學(xué)習(xí)器來(lái)完成學(xué)習(xí)任務(wù)挫望。集成學(xué)習(xí)可以用于分類問(wèn)題集成...
一立润、方差、偏差與欠擬合媳板、過(guò)擬合概念 1.方差:描述模型對(duì)于給定值的輸出穩(wěn)定性.桑腮。(強(qiáng)調(diào)個(gè)體結(jié)果與個(gè)體期望的遠(yuǎn)近) 2.偏差:描述模型輸出結(jié)果的期望與樣本真實(shí)結(jié)...
內(nèi)容 一、了解SVM 二蛉幸、深入SVM 三破讨、證明SVM(暫時(shí)不懂) ######################################################...
內(nèi)容 一、決策樹(shù)內(nèi)容簡(jiǎn)介 二奕纫、決策樹(shù)的模型與學(xué)習(xí) 三提陶、特征選擇 四、決策樹(shù)生成 五匹层、決策樹(shù)剪枝 六隙笆、CART算法 ##############################...
內(nèi)容 一、學(xué)習(xí)VC維前概念介紹 二又固、breakPoint對(duì)growth function的限制 三仲器、邊界函數(shù)Bounding Function(growth function...
內(nèi)容 一、Adaboost簡(jiǎn)介 二仰冠、Adaboost算法過(guò)程 三乏冀、Adaboost算法的訓(xùn)練誤差分析 四、Adaboost算法的解釋 五洋只、提升樹(shù) 六辆沦、詳細(xì)理解“梯度提升算法”...
概念介紹 1.最大似然估計(jì)(MLE,Maximum Likelihood Estimation):模型(x)已定,參數(shù)y未知 2.最大后驗(yàn)概率(MAP识虚,Maximum a p...
概念介紹 貝葉斯統(tǒng)計(jì)都是以條件概率肢扯,聯(lián)合概率為基礎(chǔ)的,所以我們從概率担锤,條件概率蔚晨,聯(lián)合概率開(kāi)始,然后到貝葉斯定理。 1.概率:事件發(fā)生的可能性铭腕,比如拋一枚硬幣银择,正面向上的可能性...