??本文的靈感來自于A Visual Guide to Using BERT for the First Time酸些,其作者為Jay Alamma...

??本文的靈感來自于A Visual Guide to Using BERT for the First Time酸些,其作者為Jay Alamma...
問題背景 對于分類問題,尤其是多類別分類問題中,常常把類別向量做成one-hot vector(獨熱向量)。 簡單地說捣域,就是對于多分類向量,計算...
在之前的文章《利用Word2vec生成句向量(一)》中宴合,介紹了兩種句向量的生成方法焕梅,本文將介紹一種號稱"簡單卻具有一定競爭力"的句向量表示方法:...
引言 最近依舊在做命名實體識別的任務(wù),一直在想如何能在保證效率的前提下形纺,提升BERT+BiLSTM+CRF這個主流模型的準確率丘侠。“ 達觀杯 ”的...
最近做命名實體識別(NER)的任務(wù)比較多逐样,也剛剛接觸NER不久,做一下小小的總結(jié)打肝。近兩年中文命名實體識別在信息抽取和關(guān)系抽取上的應(yīng)用受到了研究人...
Collobert等提出一個有效的神經(jīng)網(wǎng)絡(luò)模型脂新,只需要little feature engineering而不是在大量的unlabelled t...
與計算機視覺中使用圖像進行數(shù)據(jù)增強不同,NLP中文本數(shù)據(jù)增強是非常罕見的粗梭。這是因為圖像的一些簡單操作争便,如將圖像旋轉(zhuǎn)或?qū)⑵滢D(zhuǎn)換為灰度,并不會改變其...
這篇回答你絕對看得懂滞乙!如下圖,假如你從S和E之間找一條最短的路徑鉴嗤,除了遍歷完所有路徑斩启,還有什么更好的方法? 答案:viterbi (維特比)算法...
前面說的是ner的經(jīng)典算法以及今年的一些比較好的工作醉锅,最近bert模型刷新了NLP的絕大部分任務(wù)兔簇,可謂是一夜之間火爆了整個NLP界,這里我簡單記...
在做這個任務(wù)的時候是17年的9月份硬耍,當時是在一家金融公司實習(xí)做基于大量金融數(shù)據(jù)(年報垄琐,研報)的中文實體識別任務(wù),用的模型就是LSTM-C...