Li J, Lu G, Wu Z, et al. Multi-view representation model based on graph autoencoder[J]. Information Sciences, 2023, 632: 439-453.
摘要導讀:
當一些數(shù)據(jù)的標簽缺失的時候棒搜,圖自編碼器和圖變分自編碼器往往在節(jié)點聚類和連接劃分的任務重能顯示較為出色的性能护锤。然而,現(xiàn)存的圖表示學習忽略了數(shù)據(jù)多個模態(tài)之間的特征,將節(jié)點和圖結構特征作為了一個視圖煞额。此外,大多數(shù)圖自編碼器只重構節(jié)點的特征矩陣或鄰接矩陣证逻,使其無法全面的挖掘隱藏的特征表示义桂。因此,在本文中随静,作者提出了一個基于圖自編碼器的多視圖表示學習模型八千,該模型可以同時應用全局結構拓撲、潛在的局部拓撲以及特征相關性燎猛。在后續(xù)階段恋捆,作者添加了解碼器來重構節(jié)點特征矩陣。實驗結果驗證了模型的有效性重绷。
雖然論文的標題叫多視圖表示模型沸停,但其實這里是針對的是單視圖數(shù)據(jù)。具體來說昭卓,通過引入不同的關系矩陣愤钾,構造不同的關系矩陣以確保全面的利用節(jié)點特征和結構信息。
模型淺析
按照筆者的理解候醒,可以將該框架分為紅色框的多個視圖表示的編碼過程能颁,以及后續(xù)的解碼過程。
- GCN編碼過程
獲得的三種視圖為:特征相似視圖倒淫,全局拓撲視圖以及局部拓撲視圖劲装。按照作者的說法,全局拓撲結構可幫助圖自編碼器聚合高階近鄰的特征信息和更多的拓撲結構昌简;局部拓撲結構可以聚合低階近鄰的特征信息占业。最后,添加了額外的特征相似視圖來補充節(jié)點特征信息纯赎。通過三個單獨的圖卷積編碼器谦疾,可以學習到三個表示矩陣。因此犬金,從模型圖上看念恍,其實比較重要的是三個鄰接矩陣的計算。而GCNs則是使用了兩層的GCN晚顷,并且這里的GCN之間并沒有共享峰伙。那么在這部分重點介紹不同類型的鄰接矩陣的介紹。
1 特征相似視圖:直接計算兩個樣本特征的相似度
2 全局拓撲視圖: 使用Personalized PageRank 算法來獲取擴散(或傳播)矩陣
3 局部拓撲結構:原始的鄰接矩陣
通過GCN層瞳氓,可以得到三個表示。最后將得到的表示通過非線性映射栓袖,并且利用可學習的注意力向量
- 雙解碼
分別重構特診矩陣和鄰接矩陣匣摘。對應的損失為: - 對抗模塊
判別器充當二元分類器店诗,用于區(qū)分潛在變量是來自先驗分布(真實樣本)還是來自多視圖圖編碼器(虛假樣本)。這里使用的也是傳統(tǒng)的判別損失
從模型生成的角度來看刃榨,具體的實施方案中加入對抗損失是為了更好的使得模型學習的中間層表示更加貼合真實的先驗分布,使得到的模型不是進行機械的特征記憶双仍。但是筆者有個疑問枢希,如果說是為了更好的生成樣本,那么在為什么在前序的學習中不使用VGAE來進一步強化模型的生成能力朱沃?好像在實驗的部分也沒有針對這部分進行消融苞轿。這里的解釋和創(chuàng)新感覺有點不太清楚(應該是我自己的問題,以后再來看看逗物。