
一、交叉熵的由來(lái) 信息量香農(nóng)提出的“信息熵”盆昙, 是用來(lái)解決信息量化問(wèn)題。信息的不確定性越強(qiáng), 需要用來(lái)表達(dá)的數(shù)據(jù)量也就越多涂佃。事件的不確定性通常是...
Attention機(jī)制源于對(duì)Seq2Seq模型的幾個(gè)問(wèn)題優(yōu)化洪囤。Seq2Seq是基于Encoder-Decoder架構(gòu)思想實(shí)現(xiàn)查库。Encoder和D...
SVM是數(shù)據(jù)挖掘算法中比較復(fù)雜難懂的籍凝,反復(fù)觀看斯坦福機(jī)器學(xué)習(xí)的視頻周瞎, 以及網(wǎng)上零散學(xué)習(xí)各種數(shù)學(xué)和SVM相關(guān)資料苗缩, 對(duì)SVM還只能算有個(gè)粗淺的理解...
缺失值處理方式 刪除 均值缺點(diǎn):當(dāng)缺失數(shù)據(jù)不是隨機(jī)數(shù)據(jù)時(shí)會(huì)產(chǎn)生偏差.對(duì)于正常分布的數(shù)據(jù)可以使用均值代替饵蒂, 中位值數(shù)據(jù)是傾斜的,使用中位數(shù)比均值可...
邏輯回歸是回歸系列中一個(gè)分類模型酱讶,而且是一個(gè)二分類模型退盯。邏輯回歸模型簡(jiǎn)單但應(yīng)用廣泛,本文從模型介紹泻肯、適用場(chǎng)景以及優(yōu)缺點(diǎn)等幾個(gè)方面介紹下渊迁。 模型介...
機(jī)器學(xué)習(xí)監(jiān)督算法的基本思路是 讓擬合的模型盡量接近真實(shí)數(shù)據(jù), 換句更通俗的話, 要讓我們的模型盡量簡(jiǎn)單又能很好的反應(yīng)已知數(shù)據(jù)之間關(guān)系灶挟。在這個(gè)貼近...
上一篇文章中琉朽,線性回歸關(guān)鍵問(wèn)題之一:求解系數(shù)的方法梯度下降。梯度下降在數(shù)據(jù)挖掘很多算法中都有應(yīng)用稚铣, 屬于比較基本的數(shù)學(xué)基礎(chǔ)方法箱叁, 本文對(duì)此算法進(jìn)...
如上篇文章墅垮, 嶺回歸、Lasso回歸和ElasticNet 回歸都是以普通的線性回歸為基礎(chǔ)耕漱,先列舉下線性回歸的模型公式: 嶺回歸為解決共線性問(wèn)題...
常見(jiàn)回歸算法基礎(chǔ)概念算色,參見(jiàn)下如下文章,個(gè)人感覺(jué)是介紹比較好的文章: 7 Types of Regression Techniques you s...