最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò) 準(zhǔn)備訓(xùn)練數(shù)據(jù) 隨機(jī)生成50個(gè)數(shù)據(jù)娄涩,用作訓(xùn)練數(shù)據(jù) 最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)擬合寂拆,y=ax+b蚪缀,所有設(shè)置y為 不過(guò)畴博,為了符合實(shí)際情況兄一,可用適當(dāng)增加一些噪聲。 繪制x,y...
![240](https://upload.jianshu.io/users/upload_avatars/3799916/5ee927a8-88a9-472e-9695-092f5773c5bc.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
python3.9更新 版本:3.9.1日期:2021.1.1作者:Lukasz Langapython3.9發(fā)布于2020.10.5捷兰,這里做與python3.8的比較 總結(jié)...
概率圖模型 概率圖模型(Probabilistic Graphic Model),能夠很好地挖掘潛在的內(nèi)容其做。 概率圖中地節(jié)點(diǎn)分為隱含節(jié)點(diǎn)和觀測(cè)節(jié)點(diǎn)顶考,邊分為有向邊和無(wú)向邊。從概...
聚類算法評(píng)估 假設(shè)沒(méi)有外部標(biāo)簽數(shù)據(jù)妖泄,我們?cè)趺丛u(píng)價(jià)不同聚類算法的優(yōu)劣驹沿? 非監(jiān)督學(xué)習(xí)往往沒(méi)有標(biāo)注數(shù)據(jù),這是模型蹈胡,算法的設(shè)計(jì)直接影響最終的輸出和模型的性能渊季。為了評(píng)估不同的聚類算法,...
設(shè)定輸出層神經(jīng)元的數(shù)量 輸出層神經(jīng)元的數(shù)量與訓(xùn)練集樣本的類別數(shù)相關(guān)罚渐。不清楚類別數(shù)却汉,盡可能多設(shè)置節(jié)點(diǎn)數(shù)。分類過(guò)細(xì)可適當(dāng)減少輸出節(jié)點(diǎn)搅轿,減少?gòu)奈锤聶?quán)值的死節(jié)點(diǎn)病涨。 設(shè)計(jì)輸出層節(jié)點(diǎn)的...
高斯混合模型計(jì)算 初始隨機(jī)設(shè)置各參數(shù)的值,然后重復(fù)迭代下面的步驟璧坟,直至收斂 根據(jù)當(dāng)前的參數(shù)既穆,計(jì)算每個(gè)點(diǎn)由某各分模型生成的概率 使用步驟2計(jì)算出來(lái)的概率,來(lái)改進(jìn)每個(gè)模型的均值雀鹃,...
K均值缺點(diǎn) 需要人工預(yù)先設(shè)置K值幻工,而且該值與真實(shí)的數(shù)據(jù)分布未必吻合 K值只能收斂到局部最優(yōu),效果受到初始值影響較大 容易受到噪聲影響 樣本點(diǎn)被劃分到單一的類里面 高斯混合模型...
K均值算法 K均值聚類的核心目標(biāo)是將給定的數(shù)據(jù)集劃分成K個(gè)簇黎茎,并給出每個(gè)數(shù)據(jù)對(duì)應(yīng)的簇中心點(diǎn)囊颅。 數(shù)據(jù)預(yù)處理,包括但不限于歸一化傅瞻,離群點(diǎn)處理等 隨機(jī)選擇K個(gè)簇中心踢代,我們記為 定義...
非監(jiān)督學(xué)習(xí) 給機(jī)器輸入大量的特征數(shù)據(jù),并期望機(jī)器通過(guò)學(xué)習(xí)找到數(shù)據(jù)中存在的共性特征或結(jié)構(gòu)嗅骄,亦或數(shù)據(jù)之間的關(guān)聯(lián)胳挎。比如說(shuō),視頻網(wǎng)站根據(jù)用戶的觀看行為進(jìn)行分組溺森,采取不同的推薦策略慕爬。這...
線性判別分析 線性判別分析(Linear Discriminant Analysis窑眯,LDA)是一種監(jiān)督學(xué)習(xí)算法,常常用于數(shù)據(jù)降維医窿。LDA是為分類問(wèn)題服務(wù)的磅甩,因此需要先找到一...
降維 用一個(gè)低維度的向量表示原來(lái)高維度的特征,避免維度災(zāi)難姥卢。 降維方法 主成分分析 線性判別分析 等距映射 局部線性嵌入 拉普拉斯特征映射 局部保留投影 PCA最大方差理論 ...
邏輯回歸 邏輯回歸卷要,是最常見最基礎(chǔ)的模型。 邏輯回歸與線性回歸 邏輯回歸處理的是分類問(wèn)題隔显,線性回歸處理回歸問(wèn)題却妨。兩者都是采用極大似然估計(jì)對(duì)訓(xùn)練樣本建模饵逐,線性回歸使用最小二乘法...
訓(xùn)練誤差為0的SVM分類器一定存在嗎 理論上括眠,存在一組參數(shù)以及使得SVM訓(xùn)練誤差為0,但是這個(gè)參數(shù)不一定是滿足SVM條件的一個(gè)解倍权,在實(shí)際訓(xùn)練SVM模型時(shí)掷豺,會(huì)加入一個(gè)松弛變量,...
隊(duì)列 隊(duì)列的特性是先進(jìn)先出薄声。每次數(shù)據(jù)出去只能的隊(duì)列的頭部当船,每次數(shù)據(jù)進(jìn)來(lái)只能加在隊(duì)列的尾部。隊(duì)列實(shí)現(xiàn)一般有兩種方式默辨,線性隊(duì)列德频,鏈表隊(duì)列。 鏈表隊(duì)列 鏈表隊(duì)列的實(shí)現(xiàn)可以參考單向鏈...
決策樹 決策樹自上而下缩幸,對(duì)樣本數(shù)據(jù)進(jìn)行樹形分類的過(guò)程壹置。決策樹由結(jié)點(diǎn)和有向邊組成。結(jié)點(diǎn)又分內(nèi)部結(jié)點(diǎn)和葉結(jié)點(diǎn)表谊。每個(gè)內(nèi)部結(jié)點(diǎn)表示一個(gè)特征或?qū)傩猿ぃ~子結(jié)點(diǎn)表示類別。從頂部開始爆办,所有樣...
支持向量機(jī) 支持向量機(jī)(Support Vector Machine难咕,SVM)是眾多監(jiān)督學(xué)習(xí)方法中十分出色的一種。svm中廣為流傳的魔鬼與天使的故事距辆。 在空間中線性可分的兩類...
棧滿足的特性是先進(jìn)后出余佃,就像貨車裝貨物,把貨物一次放進(jìn)去跨算,但是卸貨的時(shí)候爆土,你得先把最外面的卸載了,才能繼續(xù)卸載里層的貨物漂彤。棧的實(shí)現(xiàn)有兩種形式雾消,一種是數(shù)組灾搏,一種是鏈表。 對(duì)于一...