@article{lecuyer2019certified,
title={Certified Robustness to Adversarial Examples with Differential Privacy},
author={Lecuyer, Mathias and Atlidakis, Vaggelis and Geambasu, Roxana and Hsu, Daniel and Jana, Suman},
pages={656--672},
year={2019}}
概
基于DP(differential privacy), 通過構(gòu)造-DP機制, 可以得到certified robustness (在滿足一定的條件下).
主要內(nèi)容
Differential Privacy
DP, 差分隱私, 嚴(yán)格來說它是形容一些滿足特定條件的隨機機制. 它的背景是, 一些數(shù)據(jù)庫, 在處理查詢的時候, 雖然可以采用匿名機制, 但是一些別有心思的人可以通過查詢獲得一些特定的知識來推斷出某些人或物具有的特殊的性質(zhì). 什么時候這種情況容易出現(xiàn)? 假設(shè)所有數(shù)據(jù)的全集是, 而是由中某些數(shù)據(jù)構(gòu)成的數(shù)據(jù)庫, 是一種處理查詢的機制, 會返回一次查詢的基于中返回的結(jié)果, 如果機制能夠保護隱私, 那么它應(yīng)該使得查詢者不容易分辨返回的結(jié)果是基于還是. 假設(shè)是我們通過查詢獲得的一些輸出, 那么隨機機制符合-DP, 當(dāng)
對于任意的, 任意的輸出集合, 任意的.
直觀的解釋就是, 對數(shù)據(jù)庫改變某一條數(shù)據(jù), 其輸出的范圍的變化并不明顯, 去掉會更容易理解:
顯然的時候, 我們就完全無法分辨改變的那個數(shù)據(jù)歸屬, 也即這個數(shù)據(jù)的存在不會改變整體的一些統(tǒng)計性質(zhì), 這意味著這個數(shù)據(jù)的意義是一般的. 這也就保護了隱私.
需要注意的是, 一般意義上為hamming距離, 但是論文中的都是一般的p范數(shù)(怎么推廣不是很清楚).
insensitivity
其中是網(wǎng)絡(luò)的第k個輸出, 即在內(nèi)網(wǎng)絡(luò)不會改變它的判斷.
但是, 現(xiàn)在的問題是, 一般的神經(jīng)網(wǎng)絡(luò)在不是很大的時候, 就會被干擾導(dǎo)致誤判, 所以作者就希望轉(zhuǎn)而尋求下面的insensitivity
作者發(fā)現(xiàn), DP機制可以完成這一目標(biāo).
Lemma1
注意條件
Proposition1
Proposition 1. (Robustness Condition) Suppose satisfies -DP with respect to a -norm metric. For any input , if for some ,
then the multiclass classification model based on label probability vector is robust to attacks of size on input .
條件(4)很重要, 這說明加入了DP機制并非就能讓所有的樣本都魯棒, 從某種程度上講, 只有那些“confidence"高的才能夠有certified robustness.
如何令網(wǎng)絡(luò)為-DP
首先來看, 如何讓普通的函數(shù)為-DP, 假設(shè)
為的-sensitivity.
則
是-DP的, 其中,
證明:
注意, .
還有一種是高斯機制, 即加高斯噪聲, 對應(yīng)攻擊.
此時為-DP.
然后由上圖可知, 通過在加入噪聲,
那么是DP, 是DP嗎, 答案是的.
in practice
上面, 我都是基于才會有certified robustness的, 但是神經(jīng)網(wǎng)絡(luò)的期望是沒法直接算的, 只好用蒙特卡洛采樣估計, 即
當(dāng)然, 這個時候就沒法百分百保證robust了, 有
其中分別是置信下界和上界, 具體怎么來的回看論文吧, 我沒推出來.
也就是符合上面近似條件的樣本, 有至少的概率是robust的.
注: 還有噪聲加在哪一層, 文中給出了答復(fù).
certified robustness 的估計大概需要300采樣, 普通的預(yù)測25次就足夠了.