最近真是心態(tài)炸了,標(biāo)題都寫錯(cuò)了. 前言 在之前已經(jīng)復(fù)習(xí)過了CNN的主要內(nèi)容, CNN在處理圖像與文本的任務(wù)上有非常好的表現(xiàn), 可以認(rèn)為CNN側(cè)重...
CNN研究的歷史 私以為,神經(jīng)網(wǎng)絡(luò)這一大類的算法,是仿生學(xué)與數(shù)學(xué)結(jié)合的一次突破,不管是最原始的神經(jīng)網(wǎng)絡(luò)還是現(xiàn)在非常常見各種變種,都是在參考人類大...
上文提到了word2vec的核心原理,本質(zhì)上是對(duì)bengio的NNLM模型進(jìn)行的改進(jìn), 介紹了cbow與skipgram以及Hierarchic...
詞嵌入 什么是EmbeddingEmbedding在數(shù)學(xué)上表示一個(gè)maping, 辜荠, 也就是一個(gè)映射函數(shù)。通俗的翻譯可以認(rèn)為是向量嵌入,就是把X...
做NLP也有一年半了,也占據(jù)了我工作近兩年主要的工作內(nèi)容,挖個(gè)坑回顧一下主要的算法相關(guān)內(nèi)容把. 機(jī)器學(xué)習(xí)算法 word2vec原理: cbow與...
前言 XGBoost跟GBDT是兩種應(yīng)用非常廣泛的樹模型,之前在幾種最優(yōu)化方法對(duì)比中,簡(jiǎn)單回顧了一下幾種常見的最優(yōu)化方法,算是對(duì)這篇內(nèi)容的簡(jiǎn)單鋪...
前言 發(fā)現(xiàn)了作者的一個(gè)pptGBDT算法原理與系統(tǒng)設(shè)計(jì)簡(jiǎn)介,從頭復(fù)習(xí)了一波相關(guān)的內(nèi)容,寫兩篇記錄下來.從根本上來說, GBDT 與XGBoost...
前言 現(xiàn)代機(jī)器學(xué)習(xí)的終極問題都會(huì)轉(zhuǎn)化為解目標(biāo)函數(shù)的優(yōu)化問題,MLE和MAP是生成這個(gè)函數(shù)的很基本的思想,因此我們對(duì)二者的認(rèn)知是非常重要的。最近有...
前言 最近在回顧李航的統(tǒng)計(jì)學(xué)習(xí)方法[1], 看到這一章, 準(zhǔn)備好好梳理一下, 更加深入地理解原理以及背后的思想. 作者在這一章介紹了最大熵模型并...