[1] Explanations based on the Missing: Towards Contrastive Explanations with Pertinent Negatives
這篇文章用提出了Contrastive Explanations with Pertinent Negatives庶骄,提供了一個(gè)解釋的新視角:這幅圖里面沒有什么,所以沒有被分錯(cuò)。不過這個(gè)之前在LISA的語義解釋里面講到過。這一次是visual explanation畅买。
作者將實(shí)驗(yàn)做在了minist數(shù)據(jù)集上馍佑。
如圖所示,作者指出紅色的像素是pertiment negatives, 可以改變網(wǎng)絡(luò)的分類結(jié)果魄健。藍(lán)色像素是那些能夠盡量使網(wǎng)絡(luò)分類結(jié)果不變的像素虚婿。
[2] Generating Contrastive Explanations with Monotonic Attribute Functions
本篇是【1】的后續(xù)旋奢,因?yàn)椤?】只能做在minist這種binary的數(shù)據(jù)集上,對(duì)彩色圖像無力然痊。所以作者提出了一個(gè)概念: ''how to add pertiment negatives on color images.''
作者訓(xùn)練了N個(gè)attribute分類器黄绩,利用VAE改變圖像中某些超像素,如果超像素的改變導(dǎo)致attribute分類結(jié)果改變了玷过,就說明we add something to the image. 然后作者選出那些能夠改變盡量少的attribute分類結(jié)果但是使得圖像分類結(jié)果改變的超像素(有點(diǎn)繞),指出這些超像素就是Pertiment negatives.
對(duì)于Pertinent Positives筑煮,作者的想法和lime一樣辛蚊,找到盡量少的超像素,使其能夠?qū)е孪嗤姆诸惤Y(jié)果真仲。
【2】Anchors: High-Precision Model-Agnostic Explanations
3. Interpretability Beyond Feature Attribution:
Quantitative Testing with Concept Activation Vectors (TCAV)
-- Explain the model towards the effects of some important concepts, such as stripes to zebra.
-- Evaluate the method using images with a caption on the pixels. This is the ancestor of [1]
4. 【CVPR2019】Multimodal Explanations by Predicting Counterfactuality in Videos
利用attribute和bounding box對(duì)視頻分類進(jìn)行解釋袋马。
優(yōu)點(diǎn):生成的是visual+linguistic的解釋,利用了counterfactual, 即沒有被分到A類因?yàn)闆]有attriA秸应。
缺點(diǎn):使用了bounding box進(jìn)行框定虑凛,如果用的是自解釋的方法會(huì)更好碑宴。
5. 【CVPR2019】Learning to Explain with Complemental Examples
和4同一個(gè)作者,唉桑谍,延柠,,锣披,贞间,
利用attributes解釋分類,同時(shí)選出counterfactual例子證明為什么不是另一類雹仿。
6. 【CVPR2019】Attention Branch Network:Learning of Attention Mechanism for Visual Explanation
這篇文章將CAM和網(wǎng)絡(luò)結(jié)構(gòu)相結(jié)合增热,然后稱提高了分類準(zhǔn)確率。這就是高配版的戴威論文胧辽。峻仇。。
實(shí)驗(yàn)有三個(gè)邑商,cifar摄咆,ImageNet和face attribute prediction
這個(gè)face attribute prediction值得說一下,這個(gè)實(shí)驗(yàn)是做在面部屬性識(shí)別上的奠骄,而且面部圖片有
7. 【CVPR2019】Interpretable and Fine-Grained Visual Explanations for
Convolutional Neural Networks
方法與RISE類似豆同,利用含有兩種不同object的image進(jìn)行測試,確定模型定位的能力含鳞。
利用醫(yī)學(xué)圖像進(jìn)行測試影锈,確定模型定位的能力。
利用ImageNet做deletion實(shí)驗(yàn)蝉绷。
8. Real Time Image Saliency for Black Box Classifiers
NIPS2017