最近在學(xué)習(xí)機器學(xué)習(xí)邮丰,雖然早就對kmeans有所耳聞行您,但一直沒騰出時間來實現(xiàn)。本著自己實現(xiàn)一遍是最好的理解原則剪廉,決定自己手動實現(xiàn)一遍娃循。 Kmean...
使用DNN實現(xiàn)手寫數(shù)字識別 使用mnist 數(shù)據(jù)集,基于python基礎(chǔ)庫斗蒋,用含一層隱藏層的神經(jīng)網(wǎng)絡(luò)訓(xùn)練一個簡單的模型來識別手寫數(shù)字拆挥。準(zhǔn)確率 9...
遷移學(xué)習(xí) 當(dāng)我們自己的訓(xùn)練數(shù)據(jù)不夠時阁吝,我們可以借助別人已經(jīng)訓(xùn)練好的模型,在別人模型的基礎(chǔ)上進(jìn)行二次訓(xùn)練显拜。預(yù)訓(xùn)練好的模型一般是基于大量數(shù)據(jù)訓(xùn)練出來...
SVM 概述 SVM(支持向量機)奈揍,是一種分類算法蕴坪,用一個超平面將數(shù)據(jù)分成兩份洛退。N維的數(shù)據(jù)需要(N-1)維的超平面進(jìn)行分割般甲。如圖所示: SVM工...
貝葉斯 概念 貝葉斯定理:在B出現(xiàn)的前提下,A出現(xiàn)的概率等于A和B同時出現(xiàn)的概率除以B出現(xiàn)的概率俊马。公式如下: 影響A的因素往往不止一個丁存,即。假設(shè)...
決策樹 通過構(gòu)造決策樹來區(qū)分鳶尾花 須知概念 信息熵 -- 表示信息混亂程度潭袱,信息越雜亂柱嫌,熵值越大,信息越有序屯换,熵值越小信息增益 -- 在某操...
邏輯回歸 場景簡介:使用邏輯回歸實現(xiàn)對鳶尾花的分類預(yù)測∮胙В基于python基本庫的實現(xiàn) 模型說明 邏輯回歸是一個分類模型彤悔,根據(jù)特征值來預(yù)測該樣本歸...
線性回歸 場景:使用線性回歸來預(yù)測波士頓房價。 說明 線性回歸索守,即學(xué)習(xí)一個線性方程來擬合特征X與結(jié)果Y晕窑。如根據(jù)房屋面積x1,房間數(shù)量x2卵佛,地理位...
tensorflow下 使用keras構(gòu)建卷積神經(jīng)網(wǎng)絡(luò) 1.初始化模型model杨赤。創(chuàng)建Sequential類敞斋,并添加層 2.編譯模型 調(diào)用com...