240 發(fā)簡(jiǎn)信
IP屬地:北京
  • Resize,w 360,h 240
    學(xué)習(xí)筆記-n-gram中的平滑方法

    在n-gram語言模型中,一些詞語的組合沒有在語料中出現(xiàn)過孩灯,所以其統(tǒng)計(jì)概率會(huì)為0塘装,但是這是不合理的。所以需要使用平滑方式調(diào)整概率值炭臭。平滑的基本思...

  • glove-論文閱讀

    glove全稱是Global Vectors for Word Representation狂打,它是基于全局詞頻統(tǒng)計(jì)的詞表征工具伴栓,他可以將一個(gè)單詞...

  • Resize,w 360,h 240
    學(xué)習(xí)筆記-word2vec

    在nlp的世界里,詞向量占據(jù)了重要的位置拳昌,它分布式的表示了單詞的語義信息袭异,大幅度的提升了下游任務(wù)的效果。 Word2vec根據(jù)預(yù)測(cè)詞的方式包括兩...

  • Resize,w 360,h 240
    學(xué)習(xí)筆記-簡(jiǎn)單概念記錄

    語言模型:衡量一句話是句子的概率假設(shè)有句子,根據(jù)語言模型計(jì)算s的概率為通常還使用n-gram語言模型計(jì)算句子概率 1-gram語言模型(uni-...

  • Resize,w 360,h 240
    學(xué)習(xí)筆記-數(shù)據(jù)預(yù)處理

    看到一篇數(shù)據(jù)預(yù)處理很全面的文章炬藤,所以將鏈接貼了過來 http://www.reibang.com/p/37e529c8baa9 對(duì)上述文章的補(bǔ)...

  • Resize,w 360,h 240
    XGBoost: A Scalable Tree Boosting System 閱讀筆記

    摘要 提升樹廣泛應(yīng)用于機(jī)器學(xué)習(xí)的各個(gè)領(lǐng)域御铃,在這篇論文中,提出了一個(gè)新的提升樹方式沈矿。 1. 介紹 論文的創(chuàng)新點(diǎn)共一下四點(diǎn): We design a...

  • Resize,w 360,h 240
    學(xué)習(xí)筆記-XGBOOST

    XGBOOST是GBDT模型的升級(jí)版上真,同樣也用到了adboosting的思想 一 預(yù)備知識(shí) XGBOOST是前向加法模型,那么有公式:設(shè)表示第n...

  • Resize,w 360,h 240
    FromWord Embeddings To Document Distances-閱讀

    文本相似度是自然語言處理研究熱點(diǎn)之一羹膳,論文提出了一種新的衡量文本相似度的方法睡互,Word Mover’s Distance (WMD)。此方法利用...

  • Resize,w 360,h 240
    學(xué)習(xí)筆記-隨機(jī)森林溜徙、提升樹、GBDT

    在之前的章節(jié)里犀填,學(xué)習(xí)了集成學(xué)習(xí)的兩個(gè)代表方式:bagging和boosting蠢壹,現(xiàn)在來看如果將bagging和boosting運(yùn)用在決策樹中。 ...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品