240 發(fā)簡信
IP屬地:北京
  • 學(xué)習(xí)筆記-集成模型

    集成學(xué)習(xí)通過構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來提高泛化性能。思想就是三個(gè)臭皮匠猪腕,頂個(gè)諸葛亮艾少。例如在分類中罚斗, 將多個(gè)弱分類器通過某種方式結(jié)合起來,得到比弱分類器的效果更好的效果。 bagg...

  • BERT面試8問8答

    近期對(duì)BERT系列綜述了一番怠李,但記得以前剛接觸BERT的時(shí)候有很多疑問,之后通過看博客蛤克、論文陸續(xù)弄明白了捺癞。這次就以QA的形式將關(guān)于BERT的疑問及其相應(yīng)解答分享給大家,不足之...

  • 240
    學(xué)習(xí)筆記-word2vec

    在nlp的世界里咖耘,詞向量占據(jù)了重要的位置翘簇,它分布式的表示了單詞的語義信息,大幅度的提升了下游任務(wù)的效果儿倒。 Word2vec根據(jù)預(yù)測(cè)詞的方式包括兩種模型版保,skip gram是使...

  • 240
    BiLSTM-CRF Models for Sequence Tagging(翻譯)

    Abstract(摘要) ??在本文中,我們?yōu)樾蛄袠?biāo)注任務(wù)提出了一系列基于長短時(shí)記憶網(wǎng)絡(luò) (LSTM)的模型夫否。這些模型包括 LSTM 網(wǎng)絡(luò)彻犁,BI-LSTM 網(wǎng)絡(luò),帶有條件隨機(jī)...

  • 240
    學(xué)習(xí)筆記-XGBOOST

    XGBOOST是GBDT模型的升級(jí)版凰慈,同樣也用到了adboosting的思想 一 預(yù)備知識(shí) XGBOOST是前向加法模型汞幢,那么有公式:設(shè)表示第n棵樹的模型,那么就有所以第k次...

  • 生成模型與判別模型

    生成模型 生成模型又叫概率模型微谓,其主要學(xué)習(xí)的是輸入和輸出的聯(lián)合概率分布森篷,函數(shù)形式為, 目的是希望接近于真實(shí)數(shù)據(jù)的聯(lián)合概率分布。生成模型也可以用于判別類別豺型,根據(jù)貝葉斯公式可以由...

  • CCF 疫情期間網(wǎng)民情緒識(shí)別 trick分享

    多分類問題下面仲智,我們經(jīng)常會(huì)遇到一些指標(biāo),比如正在進(jìn)行的DF平臺(tái)上的比賽姻氨,疫情期間網(wǎng)民情緒識(shí)別钓辆,用這個(gè)trick就能輕易地提分。i數(shù)據(jù)智能上面提到:如果多類別不均衡的話肴焊,這時(shí)候...

  • 240
    FromWord Embeddings To Document Distances-閱讀

    文本相似度是自然語言處理研究熱點(diǎn)之一前联,論文提出了一種新的衡量文本相似度的方法,Word Mover’s Distance (WMD)娶眷。此方法利用兩個(gè)文本的詞向量的距離來作為相...

  • 240
    學(xué)習(xí)筆記-隨機(jī)森林似嗤、提升樹、GBDT

    在之前的章節(jié)里届宠,學(xué)習(xí)了集成學(xué)習(xí)的兩個(gè)代表方式:bagging和boosting烁落,現(xiàn)在來看如果將bagging和boosting運(yùn)用在決策樹中壳咕。 隨機(jī)森林(random for...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品