對(duì)命名實(shí)體識(shí)別任務(wù)(NER)進(jìn)行數(shù)據(jù)增強(qiáng),不像對(duì)分類任務(wù)容易午磁,其主要原因它是序列標(biāo)注任務(wù)玩郊,識(shí)別是token級(jí)別。一些常見的方法迅皇,如隨機(jī)刪除或替換...
1、研究出發(fā)點(diǎn) 本次分享一篇有關(guān)embedding的文章瘪校,來自2021年ACL的paper《Modeling Fine-Grained Enti...
Introduction 今天分享一篇來自2021年NIPS會(huì)議的paper:Improving Contrastive Learning on...
1 前言 關(guān)于關(guān)系抽取(三元組抽取)的方法有很多,傳統(tǒng)的方法采用pipeline方法——先識(shí)別文本中所有實(shí)體名段,然后在對(duì)識(shí)別的實(shí)體對(duì)遍歷判斷關(guān)系類...
前言 這兩年對(duì)比學(xué)習(xí)是一個(gè)研究熱點(diǎn)阱扬,今年的ACL會(huì)議有16篇關(guān)于對(duì)比學(xué)習(xí)的paper,今天分享其中的一篇——基于語義負(fù)樣本的對(duì)比學(xué)習(xí)來提升自然語...
1 前言 在NLP領(lǐng)域中伸辟,數(shù)據(jù)增強(qiáng)(data augmentation)已成為解決樣本不平衡( data imbalance)或訓(xùn)練數(shù)據(jù)不足等問...
前言 命名實(shí)體識(shí)別(Named Entity Recognition麻惶,NER)一直是NLP中最主流,也是最基礎(chǔ)的任務(wù)之一自娩。盡管傳統(tǒng)的機(jī)器學(xué)習(xí)方法...
1 前言 在自然語言處理工作(NLP)中用踩,會(huì)遇到這樣的一個(gè)應(yīng)用問題:如何挖掘文本中某一關(guān)鍵詞的語義相似詞或近義詞?解決該問題的辦法很多忙迁,比如使用...
1 前言 預(yù)訓(xùn)練模型Bert能處理最大序列長(zhǎng)度為512,當(dāng)面對(duì)長(zhǎng)文本(文檔級(jí)別)時(shí)候碎乃,通常是采用text truncation或者sliding...