一、可解釋性的難度
深度學(xué)習(xí)模型 > 傳統(tǒng)的機(jī)器學(xué)習(xí)模型
部分傳統(tǒng)機(jī)器學(xué)習(xí)模型天然的可解釋性強(qiáng):KNN屹电、LR器瘪、線性回歸、決策樹(shù)爆哑、樸素貝葉斯
本質(zhì):看模型關(guān)注什么或者什么特征對(duì)模型影響大
二妈踊、傳統(tǒng)機(jī)器學(xué)習(xí)模型的可解釋性分析方法
1. 自帶可視化:如決策樹(shù)
2. 算法自帶的特征權(quán)重:看哪些特征更重要
3. Permutation Importance(置換重要度):也是看哪些特征更重要
4. PDP圖(多個(gè)數(shù)據(jù)的PDP圖就是ICE圖):特征值的大小對(duì)預(yù)測(cè)結(jié)果的影響
5. Shapley值:特征的貢獻(xiàn)
6. LIME
三、CNN的可解釋性分析方法
1. 可視化卷積核泪漂、特征圖
淺層:底層像素特征;中層:中層紋理特征歪泳;高層:高層語(yǔ)義特征
2. 遮擋萝勤、縮放、平移呐伞、旋轉(zhuǎn):例如遮擋某個(gè)圖片的某個(gè)部分敌卓,看對(duì)預(yù)測(cè)結(jié)果的影響,從而分析哪些特征對(duì)模型影響更大
3. 找到能使某個(gè)神經(jīng)元激活的原圖像素或者小圖:例如反卷積
4. 基于類(lèi)激活熱力圖(CAM)的可視化:找模型的關(guān)注點(diǎn)
5. 語(yǔ)義編碼降維可視化:降維到二維伶氢、三維這樣人類(lèi)可以理解的維度
6. 生成滿(mǎn)足某些要求的圖像:生成讓某個(gè)類(lèi)別預(yù)測(cè)概率最大的圖像
ps:這是學(xué)習(xí)可解釋機(jī)器學(xué)習(xí)公開(kāi)課的一些筆記