240 發(fā)簡(jiǎn)信
IP屬地:浙江
  • 120
    統(tǒng)計(jì)學(xué)習(xí)方法-第1章統(tǒng)計(jì)學(xué)習(xí)方概論

    這本書主講的內(nèi)容包括: 1.統(tǒng)計(jì)學(xué)習(xí)的定義叽唱、研究對(duì)象與方法态罪; 2.監(jiān)督學(xué)習(xí) 3.統(tǒng)計(jì)學(xué)習(xí)方法的三要素:方法=模型+策略+算法 4.介紹模型選擇地消,包括正則化、交叉驗(yàn)證與學(xué)習(xí)的泛...

  • 計(jì)算廣告系列(一)-基本概念整理当悔!

    最近開(kāi)始研究計(jì)算廣告相關(guān)的東西了傅瞻,那么首先我們要弄懂計(jì)算廣告中一些常見(jiàn)的概念踢代,本文就讓我們一起來(lái)整理下吧。 主要參考的兩本書:《計(jì)算廣告》和 《互聯(lián)網(wǎng)廣告的市場(chǎng)設(shè)計(jì)》 1嗅骄、廣...

  • 120
    2019騰訊廣告算法大賽思路~~更新啦~~2019/4/25

    2019-4-25 09:13 ~~思路持續(xù)更新I銮搿!更胖!---作者硬件:內(nèi)存:8g/ cpu:i5-4代 Attentionn跆! 作者會(huì)不定時(shí)更新內(nèi)容却妨,因?yàn)殡S著對(duì)賽題的理解會(huì)發(fā)...

  • @YYLin_AI 我也想知道用戶數(shù)據(jù)怎么怎么用

    2019騰訊廣告算法大賽思路~~更新啦~~2019/4/25

    2019-4-25 09:13 ~~思路持續(xù)更新6稹!彪标!---作者硬件:內(nèi)存:8g/ cpu:i5-4代 Attention1度ā! 作者會(huì)不定時(shí)更新內(nèi)容捞烟,因?yàn)殡S著對(duì)賽題的理解會(huì)發(fā)...

  • 時(shí)間序列Basics

    時(shí)間序列概念 1.EDA探索性數(shù)據(jù)分析目的是最大化對(duì)數(shù)據(jù)的直覺(jué)薄声,完成這個(gè)事情的方法只能是結(jié)合統(tǒng)計(jì)學(xué)的圖形以各種形式展現(xiàn)出來(lái)。通過(guò)EDA可以實(shí)現(xiàn): 1)得到數(shù)據(jù)的直觀表現(xiàn) 2)...

  • 集成學(xué)習(xí)之Bagging和RF

    一题画、什么是隨機(jī)森林 二默辨、隨機(jī)森林的兩個(gè)隨機(jī) 三、隨機(jī)森林算法過(guò)程 四苍息、為什么如此受歡迎 五缩幸、隨機(jī)森林算法的優(yōu)缺點(diǎn) 六、RF特征選擇 *********************...

  • 120
    集成學(xué)習(xí)之Boosting-xgboost

    一竞思、什么是Xgboost 二表谊、Xgboost的基本原理 三、Xgboost的工作實(shí)例 四衙四、算法的優(yōu)缺點(diǎn) ***********************************...

  • 120
    集成學(xué)習(xí)之Boosting-gbdt

    一铃肯、什么是GBDT 二、GBDT與傳統(tǒng)Adaboost的不同之處 三传蹈、GBDT的負(fù)梯度擬合 四押逼、GBDT算法流程 五步藕、GBDT工作過(guò)程實(shí)例 六、GBDT常用損失函數(shù) 七挑格、算法...

  • 120
    集成學(xué)習(xí)原理

    一雾消、集成學(xué)習(xí)的概述 集成學(xué)習(xí)(ensemble learning)本身不是一個(gè)單獨(dú)的機(jī)器學(xué)習(xí)算法,而是通過(guò)構(gòu)建并結(jié)合多個(gè)機(jī)器學(xué)習(xí)器來(lái)完成學(xué)習(xí)任務(wù)挫望。集成學(xué)習(xí)可以用于分類問(wèn)題集成...

  • 120
    四種機(jī)器學(xué)習(xí)曲線

    一立润、方差、偏差與欠擬合媳板、過(guò)擬合概念 1.方差:描述模型對(duì)于給定值的輸出穩(wěn)定性.桑腮。(強(qiáng)調(diào)個(gè)體結(jié)果與個(gè)體期望的遠(yuǎn)近) 2.偏差:描述模型輸出結(jié)果的期望與樣本真實(shí)結(jié)...

  • 120
    第7章 SVM的三層理解

    內(nèi)容 一、了解SVM 二蛉幸、深入SVM 三破讨、證明SVM(暫時(shí)不懂) ######################################################...

  • 120
    第5章 決策樹(shù)

    內(nèi)容 一、決策樹(shù)內(nèi)容簡(jiǎn)介 二奕纫、決策樹(shù)的模型與學(xué)習(xí) 三提陶、特征選擇 四、決策樹(shù)生成 五匹层、決策樹(shù)剪枝 六隙笆、CART算法 ##############################...

  • 120
    breakPoint&growth function&VC Bound

    內(nèi)容 一、學(xué)習(xí)VC維前概念介紹 二又固、breakPoint對(duì)growth function的限制 三仲器、邊界函數(shù)Bounding Function(growth function...

  • 120
    第8章 Adaboost算法

    內(nèi)容 一、Adaboost簡(jiǎn)介 二仰冠、Adaboost算法過(guò)程 三乏冀、Adaboost算法的訓(xùn)練誤差分析 四、Adaboost算法的解釋 五洋只、提升樹(shù) 六辆沦、詳細(xì)理解“梯度提升算法”...

  • 最大似然估計(jì)(MLE)VS最大后驗(yàn)估計(jì)(MAP)

    概念介紹 1.最大似然估計(jì)(MLE,Maximum Likelihood Estimation):模型(x)已定,參數(shù)y未知 2.最大后驗(yàn)概率(MAP识虚,Maximum a p...

  • 第4章 樸素貝葉斯算法

    概念介紹 貝葉斯統(tǒng)計(jì)都是以條件概率肢扯,聯(lián)合概率為基礎(chǔ)的,所以我們從概率担锤,條件概率蔚晨,聯(lián)合概率開(kāi)始,然后到貝葉斯定理。 1.概率:事件發(fā)生的可能性铭腕,比如拋一枚硬幣银择,正面向上的可能性...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品