Adaboost 分類 GBDT(Gradient Boosting Decision Tree) 梯度提升樹 XGBoost XGboost原...
Bagging 隨機(jī)森林 隨機(jī)森林=決策樹+Bagging Boosting
準(zhǔn)備工作 如果我們要把樣本畫成一棵樹(這棵樹可以用來查找最近鄰或者是分類)光督,那我們最想知道的就是:拿哪個(gè)特征去拆分樣本雕憔,并且要具體到拿哪個(gè)特征的...
準(zhǔn)備工作 學(xué)習(xí)決策樹酬蹋,要先了解信息熵和信息增益等概念。參考:https://blog.csdn.net/zhengudaoer/article/...
KNN(k-NearestNeighbor) 主要做分類左冬。也可以做回歸桐筏,回歸的是某一個(gè)屬性或特征值。找一下周圍的鄰居們又碌,看鄰居們是什么九昧,就大概知...
邏輯回歸 用sigmoid函數(shù),把線性回歸的結(jié)果進(jìn)行壓縮毕匀,壓縮到0~1之間铸鹰。然后,把壓縮結(jié)果和分類輸出y(假設(shè)是0和1)對(duì)應(yīng)起來:壓縮結(jié)果>0....
背景 整理一下機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的知識(shí)皂岔。記憶力下降的厲害蹋笼,不整理無動(dòng)力學(xué)習(xí),寫博客大概是自我救贖的好途徑吧躁垛。 梯度下降幾句話 內(nèi)容轉(zhuǎn)載自:htt...
背景 把學(xué)過的數(shù)學(xué)知識(shí)整理一下剖毯,雖然一時(shí)用不到,但相信將來的某個(gè)時(shí)間點(diǎn)教馆,會(huì)有用武之地的逊谋。 1 向量,向量的模土铺,數(shù)量積(內(nèi)積胶滋,點(diǎn)積)板鬓,向量積(外積...
1 問題 VS2015運(yùn)行一個(gè)工程時(shí)(工程中調(diào)用了一些dll文件),遇到error:無法啟動(dòng)此程序究恤,因?yàn)橛?jì)算機(jī)中缺失cublas64_100.d...