神經(jīng)網(wǎng)絡(luò)可視化——gradcam

參考文章:
<<Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization>>
參考代碼:
https://github.com/jacobgil/pytorch-grad-cam

類別無關(guān)的可視化

梯度回傳
類別無關(guān)可視化

CAM

對于一張圖片輸入,神經(jīng)網(wǎng)絡(luò)將其預(yù)測為類別A是有其緣由的脚作,通過卷積所提取的特征圖纬黎,我們可以看到圖像中那些區(qū)域?qū)τ陬A(yù)測為類別A的貢獻(xiàn)大疆液,反應(yīng)在特征圖中,即該區(qū)域的響應(yīng)值要大苛秕。
CAM的做法是對于一個訓(xùn)練好的分類網(wǎng)絡(luò)唯笙,用全局池化層替換全連接層螟蒸,重新訓(xùn)練,得到最后一層特征圖對于不同類別的貢獻(xiàn)程度崩掘,即權(quán)重七嫌。
利用權(quán)重將特征圖合在一起,得到對于某一類別的響應(yīng)圖苞慢。


CAM

Grad CAM

對于權(quán)重的計(jì)算诵原,使用梯度的全局平均來計(jì)算。不需要用全局池化替換全連接層挽放,重新訓(xùn)練绍赛。

GradCAM權(quán)重計(jì)算

其中a_k^c表示第k個特征圖對類別c的權(quán)重,y^c表示類別c的概率辑畦,A_{ij}^k表示在第k個特征圖吗蚌,(i,j)位置的像素。
除了分類纯出,Image Captioning蚯妇,Visual Question Answering也可以用Grad CAM來解釋敷燎。

Grad-CAM

可視化

Guided Grad-CAM
Guided Backpropagation 和 Grad-CAM點(diǎn)乘。

完整代碼見https://github.com/jacobgil/pytorch-grad-cam
導(dǎo)向梯度回傳的代碼

class GuidedBackpropReLU(Function):

    @staticmethod
    def forward(self, input): 
        positive_mask = (input > 0).type_as(input)
        output = torch.addcmul(torch.zeros(input.size()).type_as(input), input, positive_mask)
        self.save_for_backward(input, output) 
        return output

    @staticmethod
    def backward(self, grad_output):
        input, output = self.saved_tensors
        grad_input = None

        positive_mask_1 = (input > 0).type_as(grad_output)
        positive_mask_2 = (grad_output > 0).type_as(grad_output)
       #梯度回傳時箩言,要求梯度值為正硬贯,relu輸入值為正
        grad_input = torch.addcmul(torch.zeros(input.size()).type_as(input),
                                   torch.addcmul(torch.zeros(input.size()).type_as(input), 
                                  grad_output, positive_mask_1), positive_mask_2)

        return grad_input
class GradCam:
    def __init__(self, model, feature_module, target_layer_names, use_cuda):
'''
model:resnet50
feature_module:module.layer4,即第4層
target_layer_names:2,即第4層中index=2的block
'''
        self.model = model
        self.feature_module = feature_module
        self.model.eval()
        self.cuda = use_cuda
        if self.cuda:
            self.model = model.cuda()

        self.extractor = ModelOutputs(self.model, self.feature_module, target_layer_names)

    def forward(self, input):
        return self.model(input)

    def __call__(self, input, index=None):
'''
input:輸入圖像
index:選取特定類別陨收,如果沒有選取概率最大的類別澄成,得到預(yù)測為該類別的熱力圖
'''
        if self.cuda:
            features, output = self.extractor(input.cuda())
        else:
            features, output = self.extractor(input)

        if index == None:
            index = np.argmax(output.cpu().data.numpy())

        one_hot = np.zeros((1, output.size()[-1]), dtype=np.float32)
        one_hot[0][index] = 1
        one_hot = torch.from_numpy(one_hot).requires_grad_(True)
        if self.cuda:
            one_hot = torch.sum(one_hot.cuda() * output)
        else:
            one_hot = torch.sum(one_hot * output)

        self.feature_module.zero_grad()
        self.model.zero_grad()
        #對特定類別的概率進(jìn)行梯度回傳
        one_hot.backward(retain_graph=True)
        grads_val = self.extractor.get_gradients()[-1].cpu().data.numpy()

        #特征圖
        target = features[-1]
        target = target.cpu().data.numpy()[0, :]
        #權(quán)重
        weights = np.mean(grads_val, axis=(2, 3))[0, :]

        cam = np.zeros(target.shape[1:], dtype=np.float32)
        for i, w in enumerate(weights):
            cam += w * target[i, :, :]
        #歸一化0到1
        cam = np.maximum(cam, 0)
        cam = cv2.resize(cam, input.shape[2:])
        cam = cam - np.min(cam)
        cam = cam / np.max(cam)
        return cam
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市畏吓,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌卫漫,老刑警劉巖菲饼,帶你破解...
    沈念sama閱讀 217,826評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異列赎,居然都是意外死亡宏悦,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,968評論 3 395
  • 文/潘曉璐 我一進(jìn)店門包吝,熙熙樓的掌柜王于貴愁眉苦臉地迎上來饼煞,“玉大人,你說我怎么就攤上這事诗越∽┣疲” “怎么了?”我有些...
    開封第一講書人閱讀 164,234評論 0 354
  • 文/不壞的土叔 我叫張陵嚷狞,是天一觀的道長块促。 經(jīng)常有香客問我,道長床未,這世上最難降的妖魔是什么竭翠? 我笑而不...
    開封第一講書人閱讀 58,562評論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮薇搁,結(jié)果婚禮上斋扰,老公的妹妹穿的比我還像新娘。我一直安慰自己啃洋,他們只是感情好传货,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,611評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著宏娄,像睡著了一般损离。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上绝编,一...
    開封第一講書人閱讀 51,482評論 1 302
  • 那天僻澎,我揣著相機(jī)與錄音貌踏,去河邊找鬼。 笑死窟勃,一個胖子當(dāng)著我的面吹牛祖乳,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播秉氧,決...
    沈念sama閱讀 40,271評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼眷昆,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了汁咏?” 一聲冷哼從身側(cè)響起亚斋,我...
    開封第一講書人閱讀 39,166評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎攘滩,沒想到半個月后帅刊,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,608評論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡漂问,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,814評論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了蚤假。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片栏饮。...
    茶點(diǎn)故事閱讀 39,926評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖磷仰,靈堂內(nèi)的尸體忽然破棺而出袍嬉,到底是詐尸還是另有隱情,我是刑警寧澤灶平,帶...
    沈念sama閱讀 35,644評論 5 346
  • 正文 年R本政府宣布冬竟,位于F島的核電站,受9級特大地震影響民逼,放射性物質(zhì)發(fā)生泄漏泵殴。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,249評論 3 329
  • 文/蒙蒙 一拼苍、第九天 我趴在偏房一處隱蔽的房頂上張望笑诅。 院中可真熱鬧,春花似錦疮鲫、人聲如沸吆你。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,866評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽妇多。三九已至,卻和暖如春燕侠,著一層夾襖步出監(jiān)牢的瞬間者祖,已是汗流浹背立莉。 一陣腳步聲響...
    開封第一講書人閱讀 32,991評論 1 269
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留七问,地道東北人蜓耻。 一個月前我還...
    沈念sama閱讀 48,063評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像械巡,于是被迫代替她去往敵國和親刹淌。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,871評論 2 354

推薦閱讀更多精彩內(nèi)容