Ref
Nicolau, Miguel, and James McDermott. "Learning neural representations for network anomaly detection." IEEE transactions on cybernetics 49.8 (2018): 3074-3087.
摘要
提出了改進(jìn)網(wǎng)絡(luò)異常檢測(cè)的隱變量表征模型拢军。眾所周知的異常檢測(cè)算法常常面臨網(wǎng)絡(luò)數(shù)據(jù)高維却嗡、稀疏等問(wèn)題版述,缺乏用于訓(xùn)練溯革、模型選擇和超參數(shù)調(diào)優(yōu)的異常數(shù)據(jù)。
我們的方法是為經(jīng)典自動(dòng)編碼器(AE)和VAE引入新的正則項(xiàng),迫使正常的數(shù)據(jù)進(jìn)入以瓶頸單元激活的非飽和區(qū)域的原點(diǎn)為中心的一個(gè)非常狹小的區(qū)域。這些訓(xùn)練正常數(shù)據(jù)的AEs將正常點(diǎn)推向原點(diǎn),而與正常數(shù)據(jù)不同的異常點(diǎn)將遠(yuǎn)離正常區(qū)域太防。這些模型與普通正則化AE、稀疏AE和收縮AE有很大的不同酸员,模型的正則化使其隱特征對(duì)輸入數(shù)據(jù)的變化不敏感蜒车。瓶頸層的特征空間作為新數(shù)據(jù)的表征。一些單類學(xué)習(xí)算法被用于評(píng)估提出的模型幔嗦。實(shí)驗(yàn)證明酿愧,我們的模型有助于這些分類器在高維稀疏網(wǎng)絡(luò)數(shù)據(jù)集上高效一致地執(zhí)行,即使訓(xùn)練點(diǎn)相對(duì)較少邀泉。更重要的是嬉挡,模型可以最小化模型選擇對(duì)分類器的影響,因?yàn)樗鼈兊男阅軐?duì)大范圍的超參數(shù)設(shè)置不敏感汇恤。