Fang U, Li M, Li J, et al. A Comprehensive Survey on Multi-view Clustering[J]. IEEE Transactions on Knowledge and Data Engineering, 2023. 論文鏈接
論文導(dǎo)讀
對(duì)Multi-view clustering (MVC)做文獻(xiàn)綜述,主要包括兩種方法:
- heuristic-based multi-view clustering (HMVC)
- nonnegative matrix factorisation
- graph learning
- latent representation learning
- tensor learning
- neural network-based multi-view clustering (NNMVC)
- deep representation learning
- deep graph learning
我們主要關(guān)心的是基于神經(jīng)網(wǎng)絡(luò)的方法涵防。
MVC介紹
MVC一般的過程包含如下幾個(gè)部分:輸入星澳,提取特征,根據(jù)每個(gè)view聚類髓迎,最終得到聚類結(jié)果峦朗。
努力的方向有:consensus的構(gòu)造,聚類結(jié)果的融合排龄,區(qū)分view間的不同波势,分配view間的權(quán)重。
1. Deep Representation Learning
針對(duì)深度表示學(xué)習(xí)橄维,主要介紹了下面三種方法:
SplitAE
W. Wang, R. Arora, K. Livescu, and J. Bilmes, “On deep multi-view representation learning,” in International conference on machine learning. PMLR, 2015, pp. 1083– 1092.
作者構(gòu)造了共享的特征提取器尺铣,并分view構(gòu)造了不同的重構(gòu)網(wǎng)絡(luò),其損失函數(shù)如下:
DCCA
引入了典型關(guān)聯(lián)分析canonical correlation analysis争舞,讓兩組高維數(shù)據(jù)的相關(guān)度最大(投影到一維后凛忿,相關(guān)系數(shù)最大)。分別用兩個(gè)特征提取器提取不同維度的特征竞川,之后計(jì)算損失函數(shù):
DCCAE
把前兩個(gè)方法結(jié)合起來店溢,既有不同的特征提取器,又有不同的特征重構(gòu)委乌,損失函數(shù)也為二者的結(jié)合:
2. Deep Graph Learning
關(guān)于圖的方法共介紹了兩種床牧,都是基于single-view的,然后根據(jù)特性生成多個(gè)view遭贸,也可以直接用在多視角的數(shù)據(jù)上戈咳。
樣本間關(guān)系網(wǎng)
對(duì)應(yīng)于圖中的a。不同的顏色代表不同的樣本。single-view數(shù)據(jù)集著蛙,獲得affinity graph后删铃,通過增強(qiáng)得到兩個(gè)視角的graph views,再利用不同的特征提取器提取特征册踩,用相同的特征做還原泳姐,然后最大化MI:
多視角構(gòu)成多個(gè)網(wǎng)絡(luò)
對(duì)應(yīng)于圖中的b。不同顏色代表不同的graph view暂吉。使用同一個(gè) 特征提取器提取特征胖秒,再用相同的網(wǎng)絡(luò)還原,最后計(jì)算損失函數(shù)慕的,與a中的不同: