240 發(fā)簡信
IP屬地:遼寧
  • Resize,w 360,h 240
    幾句話之Adaboost浅蚪,GBDT揩懒,XGBoost

    Adaboost 分類 GBDT(Gradient Boosting Decision Tree) 梯度提升樹 XGBoost XGboost原...

  • Resize,w 360,h 240
    幾句話之Bagging独令,隨機(jī)森林轴猎,Boosting

    Bagging 隨機(jī)森林 隨機(jī)森林=決策樹+Bagging Boosting

  • Resize,w 360,h 240
    幾句話之Cart樹

    準(zhǔn)備工作 如果我們要把樣本畫成一棵樹(這棵樹可以用來查找最近鄰或者是分類)光督,那我們最想知道的就是:拿哪個(gè)特征去拆分樣本雕憔,并且要具體到拿哪個(gè)特征的...

  • 幾句話之決策樹

    準(zhǔn)備工作 學(xué)習(xí)決策樹酬蹋,要先了解信息熵和信息增益等概念。參考:https://blog.csdn.net/zhengudaoer/article/...

  • Resize,w 360,h 240
    幾句話之KNN和Kd-tree

    KNN(k-NearestNeighbor) 主要做分類左冬。也可以做回歸桐筏,回歸的是某一個(gè)屬性或特征值。找一下周圍的鄰居們又碌,看鄰居們是什么九昧,就大概知...

  • 幾句話之邏輯回歸和Softmax回歸

    邏輯回歸 用sigmoid函數(shù),把線性回歸的結(jié)果進(jìn)行壓縮毕匀,壓縮到0~1之間铸鹰。然后,把壓縮結(jié)果和分類輸出y(假設(shè)是0和1)對(duì)應(yīng)起來:壓縮結(jié)果>0....

  • Resize,w 360,h 240
    幾句話之梯度下降

    背景 整理一下機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的知識(shí)皂岔。記憶力下降的厲害蹋笼,不整理無動(dòng)力學(xué)習(xí),寫博客大概是自我救贖的好途徑吧躁垛。 梯度下降幾句話 內(nèi)容轉(zhuǎn)載自:htt...

  • Resize,w 360,h 240
    向量的內(nèi)積和外積

    背景 把學(xué)過的數(shù)學(xué)知識(shí)整理一下剖毯,雖然一時(shí)用不到,但相信將來的某個(gè)時(shí)間點(diǎn)教馆,會(huì)有用武之地的逊谋。 1 向量,向量的模土铺,數(shù)量積(內(nèi)積胶滋,點(diǎn)積)板鬓,向量積(外積...

  • Resize,w 360,h 240
    VS2015遇到error:計(jì)算機(jī)中缺失cublas64_100.dll

    1 問題 VS2015運(yùn)行一個(gè)工程時(shí)(工程中調(diào)用了一些dll文件),遇到error:無法啟動(dòng)此程序究恤,因?yàn)橛?jì)算機(jī)中缺失cublas64_100.d...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品