1.線性回歸
1.1一元線性回歸
y=a+bx
1.2多元線性回歸
y=a+b1x1+b2x2+...+bnxn
2.KNN算法
KNN是k最鄰近算法,是一種lazy learning(懶惰學習)悉尾,也就是說KNN在實現的過程中怔昨,不會建立模型。個人理解:在預測一個點的時候署穗,不想線性回歸那樣寥裂,先用訓練集訓練出一個y=a+bx,訓練后a和b就是確定的值案疲,當預測一個新的點的時候可以直接將此點帶入公式中封恰。而KNN不建立模型,也就是當預測新的點的時候褐啡,他會將此點和所有的訓練集做比較诺舔,然后選出K個最近的點,最后用投票準則备畦,做出預測低飒。
3.SVM
3.1線性SVM
支持向量就是在兩個類的邊界上的點,線性可分的時候就是找到支持向量中間的那條直線懂盐。
3.2線性不可分的SVM
線性不可分褥赊,我們用一個映射函數,映射到高維空間中允粤。然后在高維空間中找一個線性超平面崭倘。
4.kmeans算法
對初始點選擇有關,容易陷入局部最優(yōu)
這個算法其實很簡單类垫,最主要的是你選擇什么度量方程式司光,也就是說你選擇什么規(guī)則進行分類,是選擇距離悉患,還是相似度進行分類残家?選擇好度量方程式之后,你就對每個中心點計算到所有點的值售躁,然后將這些值放在一個矩陣中坞淮,當你對所有中心點計算完成之后,每個點距離哪個中心點最近陪捷,他就屬于哪個類回窘。
圖片發(fā)自簡書App