核心 保證一個(gè)類只有一個(gè)對(duì)象,并且提供一個(gè)訪問該類的全局訪問點(diǎn)吗货。 優(yōu)點(diǎn) 減少系統(tǒng)性能開銷,狈网,對(duì)象的產(chǎn)生需要較多資源時(shí)宙搬,如配置文件讀取,產(chǎn)生其他依賴對(duì)象拓哺,可在應(yīng)用啟動(dòng)時(shí)直接產(chǎn)生...
![240](https://cdn2.jianshu.io/assets/default_avatar/15-a7ac401939dd4df837e3bbf82abaa2a8.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
支持向量機(jī) linear regression 鲤脏, perceptron learning algorithm 们颜, logistics regression都是分類器,我們可...
機(jī)器學(xué)習(xí)可行性 在銀行評(píng)估貸款申請(qǐng)人的授信請(qǐng)求前猎醇,會(huì)進(jìn)行風(fēng)險(xiǎn)評(píng)估窥突。符合申請(qǐng)則通過,反之駁回姑食。長(zhǎng)時(shí)間的數(shù)據(jù)和申請(qǐng)使得銀行從中找到了一些規(guī)律并開始learning波岛,所以風(fēng)險(xiǎn)評(píng)估就...
聚類算法: 聚類算法屬于無監(jiān)督學(xué)習(xí),沒有給出分類音半,通過相似度得到種類则拷。 主要會(huì)講四種:Kmeans均值,層次聚類曹鸠,DBSCAN煌茬,譜聚類。 再講算法前先講一下幾種衡量相似度的方...
⑴Motivation of Aggregation 比如現(xiàn)在有一支股票彻桃,你不知道是跌還是漲坛善。你有T個(gè)friends,每一個(gè)friend對(duì)應(yīng)的建議分別是g1,g2,g3......
①Aggregation Model 回顧上一篇文章講到的聚合模型,三個(gè)臭皮匠頂一個(gè)諸葛亮眠屎。于是出現(xiàn)了blending剔交,bagging,boost改衩,stacking岖常。blen...
Random Forest——隨機(jī)森林 上一篇是講到了決策樹,這篇就來講一下樹的集合葫督,隨機(jī)森林竭鞍。 ①Aggregation Model 隨機(jī)森林還是沒有脫離聚合模型這塊,之前...
The Optimization of the Adaboost 1.對(duì)于Adaboost error function的推導(dǎo) 再回到我們上篇文章講到的Adaboost算法橄镜,...
1.PLA 重新回顧一下一開始學(xué)的PLA偎快,preceptron learning Algorithm。PLA適用于二維及高維的線性可分的情況洽胶,如果是非線性可分的數(shù)據(jù)晒夹,如果使用...
Deep Learning 上一篇主要是講了全連接神經(jīng)網(wǎng)絡(luò),這里主要講的就是深度學(xué)習(xí)網(wǎng)絡(luò)的一些設(shè)計(jì)以及一些權(quán)值的設(shè)置妖异。神經(jīng)網(wǎng)絡(luò)可以根據(jù)模型的層數(shù)惋戏,模型的復(fù)雜度和神經(jīng)元的多少大...
RBF Network 前面的一篇SVM中领追,最后的分割函數(shù): 使用高斯核函數(shù)方式把數(shù)據(jù)維度擴(kuò)展到無限維度進(jìn)而得到一條粗壯的分界線他膳。 Gaussian函數(shù)還有另外一個(gè)叫法——徑...
Matrix Factorization ①linearNetwork Hypothesis 機(jī)器學(xué)習(xí)的作用就是要從一堆數(shù)據(jù)中學(xué)習(xí)到學(xué)習(xí)到某種能力,然后用這種skill來預(yù)測(cè)...
Expectation Maximization Algorithm EM算法和之前學(xué)的都不太一樣棕孙,EM算法更多的是一種思想,所以后面用幾個(gè)例子講解些膨,同時(shí)也會(huì)重點(diǎn)講解GMM高...
HMM隱馬爾科夫模型 ①通俗的理解 首先舉一個(gè)例子蟀俊,扔骰子,有三種骰子订雾,第一個(gè)是比較常見的6個(gè)面肢预,每一個(gè)面的概率都是1/6。第二個(gè)只有4個(gè)面洼哎,烫映,每一個(gè)面的概率是1/4。第三個(gè)...
SVM 回顧一下之前的SVM噩峦,找到一個(gè)間隔最大的函數(shù)锭沟,使得正負(fù)樣本離該函數(shù)是最遠(yuǎn)的,是否最遠(yuǎn)不是看哪個(gè)點(diǎn)離函數(shù)最遠(yuǎn)识补,而是找到一個(gè)離函數(shù)最近的點(diǎn)看他是不是和該分割函數(shù)離的最近的...