一下子就二月了~時(shí)間真的好快 進(jìn)度條被迅速拉近~也快過年了贿条。我現(xiàn)在雖然有一些粉絲 贊也不少 但我不知道真正還有在看的有多少人 因?yàn)樽罱龅揭恍┦虑?所以想說一下我的本意就是...
一下子就二月了~時(shí)間真的好快 進(jìn)度條被迅速拉近~也快過年了贿条。我現(xiàn)在雖然有一些粉絲 贊也不少 但我不知道真正還有在看的有多少人 因?yàn)樽罱龅揭恍┦虑?所以想說一下我的本意就是...
六月啦~小李又上線啦!夏天到了真的悶熱(不想動(dòng)的借口)哈哈 今天更新的還是論文閱讀。(可以發(fā)現(xiàn)我最近的更新都是文本到圖片的生成 感覺再多看一些 都可以寫個(gè)這方面的綜述了--...
更多干貨內(nèi)容敬請(qǐng)關(guān)注「平安壽險(xiǎn)PAI」(公眾號(hào)ID:PAL-AI)跪妥,文末有本期分享內(nèi)容資料獲取方式。 人機(jī)對(duì)話作為人機(jī)交互系統(tǒng)的核心功能之一,發(fā)揮著十分重要的作用。目前山孔,生成...
LDA的全稱是Linear Discriminant Analysis(線性判別分析),是一種supervised learning荷憋。因?yàn)槭怯蒄isher在1936年提出的台颠,...
1. 簡(jiǎn)介 LDA 是一種基于概率的生成式模型,所以在LDA的過程中會(huì)涉及到很多概率的知識(shí)勒庄,不太熟悉的話建議先學(xué)習(xí)概率知識(shí)串前。LDA在NLP中應(yīng)用廣泛,主要是用于主題模型(to...
1.算法實(shí)現(xiàn) LDA是生成式概率模型锅铅±疑耄基本的觀點(diǎn)是一個(gè)文檔由多個(gè)隱主題生成,每個(gè)主題是由單詞的分布式表達(dá)盐须。 LDA假設(shè)在語料庫(kù)D中每個(gè)文檔的生成過程如下: 選擇 N ~ Po...
1.unigram model 在unigram 模型中,每個(gè)文檔中的單詞從單一的多項(xiàng)式分布中獨(dú)立生成漆腌。 2.mixture of unigrams: 將unigram mo...
NLP subword: 1.傳統(tǒng)方法 空格token 傳統(tǒng)詞表示方法無法很好的處理未知或罕見的詞匯(OOV問題) 傳統(tǒng)詞tokenization方法不利于模型學(xué)習(xí)詞綴之間的...
語言建模一直均以分詞為最小單位贼邓,即詞級(jí)語言模型。后來研究者嘗試在字符級(jí)別進(jìn)行語言建模闷尿,提出了數(shù)種字符級(jí)的語言模型塑径,其中最為成功是Y. Kim and et. al. (201...