Text Clustering & BERT - The performance of BERT as data representation of text clustering

emmm..這個系列可能會有好幾篇文章吧痴怨,用來彌補(bǔ)對黑色九月的無知..(3)

Subakti A, Murfi H, Hariadi N. The performance of BERT as data representation of text clustering[J]. Journal of big Data, 2022, 9(1): 1-21.

摘要導(dǎo)讀

文本聚類是將給定文本分組的任務(wù),以使得同一組中的文本將比來自不同組的文本更相似踪蹬。手動對文本進(jìn)行分組的過程需要大量的時間和勞動力腹侣。因此磷箕,利用機(jī)器學(xué)習(xí)實(shí)現(xiàn)文本的自動化分組是必要的串结。在傳統(tǒng)的機(jī)器學(xué)習(xí)聚類算法中呻右,常用的文本表示方法是TFIDF跪妥,但是TFIDF忽略了詞在句子中的位置和上下文信息。隨著NLP領(lǐng)域的快速發(fā)展声滥,BERT模型可以生成包含句子中單詞的位置和上下文信息的文本表示眉撵。本文的主要研究就是展示BERT和不同的特征提取方式以及不同正則化方式對于文本聚類的影響。

方法淺析

該研究重在驗(yàn)證不同的特征提取方式和正則化方式對文本聚類性能的影響落塑。其方法流程圖如下:

其中纽疟,TFIDF作為常用的文本表示方法這里就不贅述。主要關(guān)注BERT在研究中的作用憾赁。

BERT model can be used with two approaches which are feature-based approach and fine-tuning-based
approach.

在本文中仰挣,作者將其看作是一個基于特征的模塊,也就是說缠沈,BERT只用于產(chǎn)生文本表示而不對其進(jìn)行微調(diào)。這里需要指出的是错蝴,作者選用的是第11層的輸出作為文本表示洲愤。一個包含25個token的句子將會被編碼為一個(25, 768)的向量。并利用不同類型的特征提取和正則化方式將其轉(zhuǎn)換為(1, 768)的句子文本表示顷锰。

針對BERT的特征提取包含Max-pooling和Mean-pooling兩種方式柬赐。
(1)Max-pooling:給定包含n個token的文本,每個tokeni都被表示為768維的向量:

d代表BERT輸出的特征維度官紫,一般為768肛宋。最終的文本表示k是一個d維的向量,其第k維表示為:

(2)Mean-pooling:將得到的n個token的表示進(jìn)行平均束世,第k維表示為:

得到的輸出將會被輸入到特征的正則化模塊(用于保證穩(wěn)定的性能)酝陈,正則化模塊包含了4種不同的策略:
(1)Identity normalization:恒等正則,f(h)=h毁涉。
(2)standard normalization:標(biāo)準(zhǔn)化沉帮,\tilde{h}=\frac{h}{||h||}
(3)Layer normalization:層正則贫堰,\tilde{h}=\frac{h-\phi}{\sigma}穆壕,\phi\sigma分別是特征表示h的均值和標(biāo)準(zhǔn)差。
(4)min–max normalization:最大最小正則用于將特征表示h縮放到0-1的范圍之內(nèi)其屏。

隨后得到的h作為句子的最終表示用于聚類任務(wù)喇勋。本文的聚類任務(wù)主要包含兩種傳統(tǒng)方法和兩種深度聚類方法,

分別在3個文本數(shù)據(jù)集上展示了TFIDF和BERT與不同策略的組合對應(yīng)的聚類性能偎行。

在實(shí)驗(yàn)部分值得注意的一點(diǎn)是川背,使用了不同的正則化策略之后贰拿,使得文本之間的差異性增大,顯然對無監(jiān)督聚類任務(wù)來說是很友善的渗常。

這篇論文將BERT在下游任務(wù)中的角色劃分為“基于特征”和“基于微調(diào)”的方法兩種壮不。目前看到的三篇文本聚類的論文中,都將BERT視為“基于特征”的方法皱碘。換句話說询一,BERT僅僅作為一個特征表示的工具參與文本表示的階段,而且在文本表示的階段也是只依賴于BERT在預(yù)訓(xùn)練階段的預(yù)料癌椿,忽略了當(dāng)前需要聚類的數(shù)據(jù)集的特有文本特征健蕊。

本文的突出點(diǎn)在于對不同特征抽取方式和歸一化方式的組合學(xué)習(xí)。通過大量的實(shí)驗(yàn)說明不同的聚類方法依賴于不同的特征表示方式踢俄,同時不同的特征表示和聚類方法其性能的上限也是有差異的缩功。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市都办,隨后出現(xiàn)的幾起案子嫡锌,更是在濱河造成了極大的恐慌,老刑警劉巖琳钉,帶你破解...
    沈念sama閱讀 221,406評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件势木,死亡現(xiàn)場離奇詭異,居然都是意外死亡歌懒,警方通過查閱死者的電腦和手機(jī)啦桌,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,395評論 3 398
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來及皂,“玉大人甫男,你說我怎么就攤上這事⊙樯眨” “怎么了板驳?”我有些...
    開封第一講書人閱讀 167,815評論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長碍拆。 經(jīng)常有香客問我笋庄,道長,這世上最難降的妖魔是什么倔监? 我笑而不...
    開封第一講書人閱讀 59,537評論 1 296
  • 正文 為了忘掉前任直砂,我火速辦了婚禮,結(jié)果婚禮上浩习,老公的妹妹穿的比我還像新娘静暂。我一直安慰自己,他們只是感情好谱秽,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,536評論 6 397
  • 文/花漫 我一把揭開白布洽蛀。 她就那樣靜靜地躺著摹迷,像睡著了一般。 火紅的嫁衣襯著肌膚如雪郊供。 梳的紋絲不亂的頭發(fā)上峡碉,一...
    開封第一講書人閱讀 52,184評論 1 308
  • 那天,我揣著相機(jī)與錄音驮审,去河邊找鬼鲫寄。 笑死,一個胖子當(dāng)著我的面吹牛疯淫,可吹牛的內(nèi)容都是我干的地来。 我是一名探鬼主播,決...
    沈念sama閱讀 40,776評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼熙掺,長吁一口氣:“原來是場噩夢啊……” “哼未斑!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起币绩,我...
    開封第一講書人閱讀 39,668評論 0 276
  • 序言:老撾萬榮一對情侶失蹤形帮,失蹤者是張志新(化名)和其女友劉穎致燥,沒想到半個月后傀蚌,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體辣往,經(jīng)...
    沈念sama閱讀 46,212評論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡峭判,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,299評論 3 340
  • 正文 我和宋清朗相戀三年菩帝,在試婚紗的時候發(fā)現(xiàn)自己被綠了润文。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片冷尉。...
    茶點(diǎn)故事閱讀 40,438評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡川队,死狀恐怖力细,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情固额,我是刑警寧澤眠蚂,帶...
    沈念sama閱讀 36,128評論 5 349
  • 正文 年R本政府宣布,位于F島的核電站斗躏,受9級特大地震影響逝慧,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜啄糙,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,807評論 3 333
  • 文/蒙蒙 一笛臣、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧隧饼,春花似錦沈堡、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,279評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽鲸拥。三九已至,卻和暖如春僧免,著一層夾襖步出監(jiān)牢的瞬間刑赶,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,395評論 1 272
  • 我被黑心中介騙來泰國打工懂衩, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留撞叨,地道東北人。 一個月前我還...
    沈念sama閱讀 48,827評論 3 376
  • 正文 我出身青樓勃痴,卻偏偏與公主長得像谒所,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子沛申,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,446評論 2 359

推薦閱讀更多精彩內(nèi)容

  • 1 為什么要對特征做歸一化 特征歸一化是將所有特征都統(tǒng)一到一個大致相同的數(shù)值區(qū)間內(nèi)劣领,通常為[0,1]。常用的特征歸...
    顧子豪閱讀 1,361評論 0 1
  • 1 為什么要對特征做歸一化 特征歸一化是將所有特征都統(tǒng)一到一個大致相同的數(shù)值區(qū)間內(nèi)铁材,通常為[0,1]尖淘。常用的特征歸...
    顧子豪閱讀 6,385評論 2 22
  • 矩陣分解 矩陣分解有哪些方法,分別是怎么做的 SVD在數(shù)據(jù)特別多時會產(chǎn)生什么問題著觉,如何解決村生,PCA和SVD之間的區(qū)...
    歐文坐公交閱讀 280評論 0 0
  • 本文介紹何愷明組在MAE后發(fā)表的兩篇論文。使plain ViT更直接地適配下游檢測任務(wù)饼丘,并比較了自監(jiān)督預(yù)訓(xùn)練趁桃、監(jiān)督...
    Valar_Morghulis閱讀 1,973評論 0 1
  • 101.深度學(xué)習(xí)(CNN RNN Attention)解決大規(guī)模文本分類問題。 用深度學(xué)習(xí)(CNN RNN Att...
    大黃大黃大黃閱讀 13,823評論 2 42