240 發(fā)簡(jiǎn)信
IP屬地:上海
  • 240
    真正的利器:對(duì)比學(xué)習(xí)SimCSE

    最近看了一篇最新的Sentence Embedding論文,今年4月份的爱葵,丹琦大神發(fā)表的《Simple Contrastive Learning of Sentence Em...

  • 自然語(yǔ)言處理之文本數(shù)據(jù)增強(qiáng)

    什么是數(shù)據(jù)增強(qiáng) 數(shù)據(jù)增強(qiáng)可以簡(jiǎn)單理解為由少量數(shù)據(jù)生成大量數(shù)據(jù)的過(guò)程巾腕。一般比較成功的神經(jīng)網(wǎng)絡(luò)擁有大量參數(shù),使這些參數(shù)正確工作需要用大量的數(shù)據(jù)進(jìn)行訓(xùn)練帐要,但實(shí)際情況中數(shù)據(jù)并沒(méi)有那么...

  • NLP 預(yù)處理總結(jié)

    在處理 NLP 相關(guān)任務(wù)的時(shí)候(文本分類(lèi)、聚類(lèi),智能客服等)窗声,首要任務(wù)是對(duì)文本數(shù)據(jù)進(jìn)行預(yù)處理。結(jié)合自己的實(shí)踐經(jīng)驗(yàn)辜纲,總結(jié)了 N 條預(yù)處理的方法笨觅。 去掉一些無(wú)用的符號(hào) 文本中可能...

  • CNN

    CNN Basic Model 卷積層 由不同窗口大小的 Filter 構(gòu)成 Filter 個(gè)數(shù)由自己決定拦耐,超參數(shù)。 同一個(gè) Filter 參數(shù)共享见剩,極大減少了參數(shù)個(gè)數(shù)杀糯。 因...

  • jieba 分詞原理

    基本原理 基于前綴詞典實(shí)現(xiàn)高效的詞圖掃描,生成句子中漢字所有可能成詞情況所構(gòu)成的有向無(wú)環(huán)圖 (DAG);用前綴字典實(shí)現(xiàn)了詞庫(kù)的存儲(chǔ)(即dict.txt文件中的內(nèi)容)苍苞,而棄用之...

  • 240
    推薦算法之—FM

    1固翰、什么是FM算法 FM即Factor Machine,因子分解機(jī) 2羹呵、為什么需要FM 1)骂际、特征組合是許多機(jī)器學(xué)習(xí)建模過(guò)程中遇到的問(wèn)題,如果對(duì)特征直接建模冈欢,很有可能忽略掉特...

  • 文本情感分類(lèi)

    傳統(tǒng)模型——基于情感詞典 輸入句子歉铝,預(yù)處理 文本分詞 訓(xùn)練情感詞典(積極消極詞匯、否定詞凑耻、程度副詞等) 判斷規(guī)則(算法模型) 情感分類(lèi) 文本預(yù)處理 使用正則表達(dá)式太示,過(guò)濾掉我們...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品