本文約3115字考杉,建議閱讀6分鐘。
本文為你介紹機(jī)器學(xué)習(xí)算法及其分類揭斧,助你成為機(jī)器學(xué)習(xí)領(lǐng)域的專家
我們都知道Python容易學(xué)莱革,但是就是不知道如何去學(xué),去哪里找資料讹开,機(jī)器學(xué)習(xí)
人工智能盅视,深度學(xué)習(xí),都在這學(xué)習(xí)旦万,歡迎加入python學(xué)習(xí)交流qq群233539995闹击,分享我精心準(zhǔn)備的Python學(xué)習(xí)資料
0基礎(chǔ)到進(jìn)階!希望你們在學(xué)習(xí)Python道路上少走彎路成艘!加油赏半!
機(jī)器學(xué)習(xí)算法簡介
有兩種方法可以對你現(xiàn)在遇到的所有機(jī)器學(xué)習(xí)算法進(jìn)行分類。
第一種算法分組是學(xué)習(xí)風(fēng)格的淆两。
第二種算法分組是通過形式或功能相似断箫。
通常,這兩種方法都能概括全部的算法秋冰。但是瑰枫,我們將重點關(guān)注通過相似性對算法進(jìn)行分組。
通過學(xué)習(xí)風(fēng)格分組的機(jī)器學(xué)習(xí)算法
算法可以通過不同的方式對問題進(jìn)行建模,但是光坝,無論我們想要什么結(jié)果都需要數(shù)據(jù)尸诽。此外,算法在機(jī)器學(xué)習(xí)和人工智能中很流行盯另。讓我們來看看機(jī)器學(xué)習(xí)算法中的三種不同學(xué)習(xí)方式:
監(jiān)督學(xué)習(xí)
基本上性含,在監(jiān)督機(jī)器學(xué)習(xí)中,輸入數(shù)據(jù)被稱為訓(xùn)練數(shù)據(jù)鸳惯,并且具有已知的標(biāo)簽或結(jié)果商蕴,例如垃圾郵件/非垃圾郵件或股票價格。在此芝发,通過訓(xùn)練過程中準(zhǔn)備模型绪商。此外,還需要做出預(yù)測辅鲸。并且在這些預(yù)測錯誤時予以糾正格郁。訓(xùn)練過程一直持續(xù)到模型達(dá)到所需水平。
示例問題:分類和回歸独悴。
示例算法:邏輯回歸和反向傳播神經(jīng)網(wǎng)絡(luò)例书。
無監(jiān)督學(xué)習(xí)
在無監(jiān)督機(jī)器學(xué)習(xí)中,輸入數(shù)據(jù)未標(biāo)記且沒有已知結(jié)果刻炒。我們必須通過推導(dǎo)輸入數(shù)據(jù)中存在的結(jié)構(gòu)來準(zhǔn)備模型决采。這可能是提取一般規(guī)則,但是我們可以通過數(shù)學(xué)過程來減少冗余坟奥。
示例問題:聚類树瞭,降維和關(guān)聯(lián)規(guī)則學(xué)習(xí)。
示例算法:Apriori算法和k-Means爱谁。
半監(jiān)督學(xué)習(xí)
輸入數(shù)據(jù)是標(biāo)記和未標(biāo)記示例的混合移迫。存在期望的預(yù)測問題,但該模型必須學(xué)習(xí)組織數(shù)據(jù)以及進(jìn)行預(yù)測的結(jié)構(gòu)管行。
示例問題:分類和回歸厨埋。
示例算法:其他靈活方法的擴(kuò)展。
由功能的相似性分組的算法
ML算法通常根據(jù)其功能的相似性進(jìn)行分組捐顷。例如荡陷,基于樹的方法以及神經(jīng)網(wǎng)絡(luò)的方法。但是迅涮,仍有算法可以輕松適應(yīng)多個類別废赞。如學(xué)習(xí)矢量量化,這是一個神經(jīng)網(wǎng)絡(luò)方法和基于實例的方法叮姑。
回歸算法
回歸算法涉及對變量之間的關(guān)系進(jìn)行建模唉地,我們在使用模型進(jìn)行的預(yù)測中產(chǎn)生的錯誤度量來改進(jìn)据悔。
這些方法是數(shù)據(jù)統(tǒng)計的主力,此外耘沼,它們也已被選入統(tǒng)計機(jī)器學(xué)習(xí)极颓。最流行的回歸算法是:
普通最小二乘回歸(OLSR);
線性回歸群嗤;
Logistic回歸菠隆;
逐步回歸;
多元自適應(yīng)回歸樣條(MARS)狂秘;
局部估計的散點圖平滑(LOESS)骇径;
基于實例的算法
該類算法是解決實例訓(xùn)練數(shù)據(jù)的決策問題。這些方法構(gòu)建了示例數(shù)據(jù)的數(shù)據(jù)庫者春,它需要將新數(shù)據(jù)與數(shù)據(jù)庫進(jìn)行比較破衔。為了比較,我們使用相似性度量來找到最佳匹配并進(jìn)行預(yù)測钱烟。出于這個原因晰筛,基于實例的方法也稱為贏者通吃方法和基于記憶的學(xué)習(xí),重點放在存儲實例的表示上忠售。因此传惠,在實例之間使用相似性度量迄沫。最流行的基于實例的算法是:
k-最近鄰(kNN)稻扬;
學(xué)習(xí)矢量量化(LVQ);
自組織特征映射(SOM)羊瘩;
本地加權(quán)學(xué)習(xí)(LWL)泰佳;
正則化算法
我在這里列出了正則化算法,因為它們很流行尘吗,功能強(qiáng)大逝她。并且通常對其他方法進(jìn)行簡單的修改,最流行的正則化算法是:
嶺回歸睬捶;
最小絕對收縮和選擇算子(LASSO)黔宛;
彈性網(wǎng)回歸;
最小角回歸(LARS)擒贸;
決策樹算法
決策樹方法用于構(gòu)建決策模型臀晃,這是基于數(shù)據(jù)屬性的實際值。決策在樹結(jié)構(gòu)中進(jìn)行分叉介劫,直到對給定記錄做出預(yù)測決定徽惋。決策樹通常快速準(zhǔn)確座韵,這也是機(jī)器學(xué)習(xí)從業(yè)者的最愛的算法险绘。最流行的決策樹算法是:
分類和回歸樹(CART);
迭代Dichotomiser 3(ID3);
C4.5和C5.0(強(qiáng)大方法的不同版本)宦棺;
卡方自動交互檢測(CHAID)瓣距;
決策樹樁;
M5渺氧;
條件決策樹旨涝;
貝葉斯算法
這些方法適用于貝葉斯定理的問題,如分類和回歸侣背。最流行的貝葉斯算法是:
樸素貝葉斯白华;
高斯樸素貝葉斯;
多項樸素貝葉斯贩耐;
平均一依賴估計量(AODE)弧腥;
貝葉斯信念網(wǎng)絡(luò)(BBN);
貝葉斯網(wǎng)絡(luò)(BN)潮太;
聚類算法
幾乎所有的聚類算法都涉及使用數(shù)據(jù)中的固有結(jié)構(gòu)管搪,這需要將數(shù)據(jù)最佳地組織成最大共性的組。最流行的聚類算法是:
K-均值铡买;
K-平均更鲁;
期望最大化(EM);
分層聚類奇钞;
關(guān)聯(lián)規(guī)則學(xué)習(xí)算法
關(guān)聯(lián)規(guī)則學(xué)習(xí)方法提取規(guī)則澡为,它可以完美的解釋數(shù)據(jù)中變量之間的關(guān)系。這些規(guī)則可以在大型多維數(shù)據(jù)集中被發(fā)現(xiàn)是非常重要的景埃。最流行的關(guān)聯(lián)規(guī)則學(xué)習(xí)算法是:
Apriori算法媒至;
Eclat算法;
人工神經(jīng)網(wǎng)絡(luò)算法
這些算法模型大多受到生物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的啟發(fā)谷徙。它們可以是一類模式匹配拒啰,可以被用于回歸和分類問題。它擁有一個巨大的子領(lǐng)域完慧,因為它擁有數(shù)百種算法和變體谋旦。最流行的人工神經(jīng)網(wǎng)絡(luò)算法是:
感知機(jī);
反向傳播屈尼;
Hopfield神經(jīng)網(wǎng)絡(luò)册着;
徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(RBFN)
深度學(xué)習(xí)算法
深度學(xué)習(xí)算法是人工神經(jīng)網(wǎng)絡(luò)的更新。他們更關(guān)心構(gòu)建更大更復(fù)雜的神經(jīng)網(wǎng)絡(luò)鸿染。最流行的深度學(xué)習(xí)算法是:
深玻爾茲曼機(jī)(DBM)指蚜;
深信仰網(wǎng)絡(luò)(DBN);
卷積神經(jīng)網(wǎng)絡(luò)(CNN)涨椒;
堆疊式自動編碼器摊鸡;
降維算法
與聚類方法一樣绽媒,維數(shù)減少也是為了尋求數(shù)據(jù)的固有結(jié)構(gòu)。通常免猾,可視化維度數(shù)據(jù)是非常有用的是辕。此外,我們可以在監(jiān)督學(xué)習(xí)方法中使用它猎提。
主成分分析(PCA)获三;
主成分回歸(PCR);
偏最小二乘回歸(PLSR)锨苏;
Sammon Mapping疙教;
多維縮放(MDS);
投影追蹤伞租;
線性判別分析(LDA)贞谓;
高斯混合判別分析(MDA);
二次判別分析(QDA)葵诈;
費舍爾判別分析(FDA)裸弦;
常用機(jī)器學(xué)習(xí)算法列表
樸素貝葉斯分類器機(jī)器學(xué)習(xí)算法
通常,網(wǎng)頁作喘、文檔和電子郵件進(jìn)行分類將是困難且不可能的理疙。這就是樸素貝葉斯分類器機(jī)器學(xué)習(xí)算法的用武之地。分類器其實是一個分配總體元素值的函數(shù)泞坦。例如窖贤,垃圾郵件過濾是樸素貝葉斯算法的一種流行應(yīng)用。因此暇矫,垃圾郵件過濾器是一種分類器主之,可為所有電子郵件分配標(biāo)簽“垃圾郵件”或“非垃圾郵件”择吊±罡基本上,它是按照相似性分組的最流行的學(xué)習(xí)方法之一几睛。這適用于流行的貝葉斯概率定理房轿。
K-means:聚類機(jī)器學(xué)習(xí)算法
通常,K-means是用于聚類分析的無監(jiān)督機(jī)器學(xué)習(xí)算法所森。此外囱持,K-Means是一種非確定性和迭代方法,該算法通過預(yù)定數(shù)量的簇k對給定數(shù)據(jù)集進(jìn)行操作焕济。因此纷妆,K-Means算法的輸出是具有在簇之間分離的輸入數(shù)據(jù)的k個簇。
支持向量機(jī)學(xué)習(xí)算法
基本上晴弃,它是用于分類或回歸問題的監(jiān)督機(jī)器學(xué)習(xí)算法掩幢。SVM從數(shù)據(jù)集學(xué)習(xí)逊拍,這樣SVM就可以對任何新數(shù)據(jù)進(jìn)行分類。此外际邻,它的工作原理是通過查找將數(shù)據(jù)分類到不同的類中芯丧。我們用它來將訓(xùn)練數(shù)據(jù)集分成幾類。而且世曾,有許多這樣的線性超平面缨恒,SVM試圖最大化各種類之間的距離,這被稱為邊際最大化轮听。
SVM分為兩類:
線性SVM:在線性SVM中骗露,訓(xùn)練數(shù)據(jù)必須通過超平面分離分類器。
非線性SVM:在非線性SVM中血巍,不可能使用超平面分離訓(xùn)練數(shù)據(jù)椒袍。
Apriori機(jī)器學(xué)習(xí)算法
這是一種無監(jiān)督的機(jī)器學(xué)習(xí)算法。我們用來從給定的數(shù)據(jù)集生成關(guān)聯(lián)規(guī)則藻茂。關(guān)聯(lián)規(guī)則意味著如果發(fā)生項目A驹暑,則項目B也以一定概率發(fā)生,生成的大多數(shù)關(guān)聯(lián)規(guī)則都是IF_THEN格式辨赐。例如优俘,如果人們購買iPad,那么他們也會購買iPad保護(hù)套來保護(hù)它掀序。Apriori機(jī)器學(xué)習(xí)算法工作的基本原理:如果項目集頻繁出現(xiàn)帆焕,則項目集的所有子集也經(jīng)常出現(xiàn)。
線性回歸機(jī)器學(xué)習(xí)算法
它顯示了2個變量之間的關(guān)系不恭,它顯示了一個變量的變化如何影響另一個變量叶雹。
決策樹機(jī)器學(xué)習(xí)算法
決策樹是圖形表示,它利用分支方法來舉例說明決策的所有可能結(jié)果换吧。在決策樹中折晦,內(nèi)部節(jié)點表示對屬性的測試。因為樹的每個分支代表測試的結(jié)果沾瓦,并且葉節(jié)點表示特定的類標(biāo)簽满着,即在計算所有屬性后做出的決定。此外贯莺,我們必須通過從根節(jié)點到葉節(jié)點的路徑來表示分類风喇。
隨機(jī)森林機(jī)器學(xué)習(xí)算法
它是首選的機(jī)器學(xué)習(xí)算法。我們使用套袋方法創(chuàng)建一堆具有隨機(jī)數(shù)據(jù)子集的決策樹缕探。我們必須在數(shù)據(jù)集的隨機(jī)樣本上多次訓(xùn)練模型魂莫,因為我們需要從隨機(jī)森林算法中獲得良好的預(yù)測性能。此外爹耗,在這種集成學(xué)習(xí)方法中耙考,我們必須組合所有決策樹的輸出秽誊,做出最后的預(yù)測。此外琳骡,我們通過輪詢每個決策樹的結(jié)果來推導(dǎo)出最終預(yù)測锅论。
Logistic回歸機(jī)器學(xué)習(xí)算法
這個算法的名稱可能有點令人困惑,Logistic回歸算法用于分類任務(wù)而不是回歸問題楣号。此外最易,這里的名稱“回歸”意味著線性模型適合于特征空間。該算法將邏輯函數(shù)應(yīng)用于特征的線性組合炫狱,這需要預(yù)測分類因變量的結(jié)果藻懒。
結(jié)論
我們研究了機(jī)器學(xué)習(xí)算法,并了解了機(jī)器學(xué)習(xí)算法的分類:回歸算法视译、基于實例的算法嬉荆、正則化算法、決策樹算法酷含、貝葉斯算法鄙早、聚類算法、關(guān)聯(lián)規(guī)則學(xué)習(xí)算法椅亚、人工神經(jīng)網(wǎng)絡(luò)算法限番、深度學(xué)習(xí)算法、降維算法呀舔、集成算法弥虐、監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)媚赖、半監(jiān)督學(xué)習(xí)霜瘪、樸素貝葉斯分類器算法、K-means聚類算法惧磺、支持向量機(jī)算法颖对、Apriori算法、線性回歸和Logistic回歸豺妓。熟悉這類算法有助你成為機(jī)器學(xué)習(xí)領(lǐng)域的專家惜互!