Adaboost 分類 GBDT(Gradient Boosting Decision Tree) 梯度提升樹 XGBoost XGboost原...
Bagging 隨機(jī)森林 隨機(jī)森林=決策樹+Bagging Boosting
準(zhǔn)備工作 如果我們要把樣本畫成一棵樹(這棵樹可以用來查找最近鄰或者是分類),那我們最想知道的就是:拿哪個(gè)特征去拆分樣本,并且要具體到拿哪個(gè)特征的...
準(zhǔn)備工作 學(xué)習(xí)決策樹,要先了解信息熵和信息增益等概念白胀。參考:https://blog.csdn.net/zhengudaoer/article/...
KNN(k-NearestNeighbor) 主要做分類。也可以做回歸抚岗,回歸的是某一個(gè)屬性或特征值或杠。找一下周圍的鄰居們,看鄰居們是什么苟跪,就大概知...
邏輯回歸 用sigmoid函數(shù)廷痘,把線性回歸的結(jié)果進(jìn)行壓縮蔓涧,壓縮到0~1之間件已。然后,把壓縮結(jié)果和分類輸出y(假設(shè)是0和1)對(duì)應(yīng)起來:壓縮結(jié)果>0....
背景 整理一下機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的知識(shí)元暴。記憶力下降的厲害篷扩,不整理無動(dòng)力學(xué)習(xí),寫博客大概是自我救贖的好途徑吧茉盏。 梯度下降幾句話 內(nèi)容轉(zhuǎn)載自:htt...
背景 把學(xué)過的數(shù)學(xué)知識(shí)整理一下鉴未,雖然一時(shí)用不到,但相信將來的某個(gè)時(shí)間點(diǎn)鸠姨,會(huì)有用武之地的铜秆。 1 向量,向量的模讶迁,數(shù)量積(內(nèi)積连茧,點(diǎn)積),向量積(外積...
1 問題 VS2015運(yùn)行一個(gè)工程時(shí)(工程中調(diào)用了一些dll文件),遇到error:無法啟動(dòng)此程序啸驯,因?yàn)橛?jì)算機(jī)中缺失cublas64_100.d...