因果推斷深度學(xué)習(xí)工具箱 - LEARNING DISENTANGLED REPRESENTATIONS FOR COUNTERFACTUAL REGRESSION

文章名稱

LEARNING DISENTANGLED REPRESENTATIONS FOR COUNTERFACTUAL REGRESSION

核心要點(diǎn)

同之前CFR-IS是同一批作者,也是在之前基礎(chǔ)上的改進(jìn)煌抒。文章主要針對(duì)binary treatment的場(chǎng)景,能夠用來(lái)估計(jì)CATE(當(dāng)然也可以估計(jì)ATE)柠硕。作者基于CFR-IS[1]杖狼,結(jié)合RSB-Net[2]中提出的分解covariates為3種隱變量的思路充石,利用3個(gè)表示學(xué)習(xí)網(wǎng)絡(luò)分別學(xué)習(xí)從原始covariates學(xué)習(xí)這三種隱變量的表示瓮下。隨后,只利用這3種隱變量中和outcome預(yù)測(cè)相關(guān)的兩種變量進(jìn)行factual outcome的預(yù)測(cè)饵溅。并在預(yù)測(cè)factual outcome時(shí)利用confounder(即同時(shí)影響treatment assignment和outcome prediction的隱變量)隱變量對(duì)樣本進(jìn)行加權(quán)妨退。并且,只在與outcome predictor相關(guān)的隱變量上減少不同treatment帶來(lái)的差異(也就是計(jì)算discrepancy)蜕企。
個(gè)人認(rèn)為亮點(diǎn)是咬荷,1)清晰地分解了covariates;2)同時(shí)轻掩,在不同場(chǎng)景更細(xì)致的利用了3種不同隱變量的組合幸乒。文章思路簡(jiǎn)潔清晰,ICLR唇牧。

方法細(xì)節(jié)

問(wèn)題引入

熟悉因果推斷的同學(xué)們知道(或者看過(guò)前邊的文章)罕扎,現(xiàn)在估計(jì)因果推斷的方法需要解決的兩個(gè)主要問(wèn)題是1)missing counterfactual;2)selection bias丐重。RSB-Net[2]的文章里已經(jīng)提到了分解covariates腔召,也就是說(shuō),并不是所有的covariates對(duì)selection bias都有貢獻(xiàn)扮惦,一股腦的放進(jìn)去做adjustment會(huì)帶來(lái)方差臀蛛,同時(shí)也會(huì)損失對(duì)outcome的預(yù)測(cè)信息。如果能拆出來(lái)只對(duì)treatment assignment有影響的covariates成分崖蜜,只對(duì)outcome prediction有影響的covariates成分浊仆,以及同時(shí)對(duì)outcome prediction和treatment assignment有影響的covariates成分(也就是confounder),那么就能減緩上邊說(shuō)的問(wèn)題豫领。
同時(shí)抡柿,CFR-IS[1]中提到了,需要通過(guò)weighting來(lái)平衡樣本等恐,在factual prediction的時(shí)候洲劣,緩解selection bias。這個(gè)weighting的計(jì)算是依賴于propensity score的鼠锈。IPW類方法的問(wèn)題闪檬,就在于propensity score的估計(jì)可能不準(zhǔn)確(比如,模型假設(shè)有問(wèn)題)购笆。所以,提升了propensity score的準(zhǔn)確度虚循,進(jìn)一步提升了causal effect估計(jì)的準(zhǔn)確度同欠。

3 types of latent variables

此外样傍,為了抽取信息,仍然要進(jìn)行表示學(xué)習(xí)铺遂,所以\Gamma衫哥,\Delta\Upsilon都關(guān)于covariates的函數(shù)襟锐。

具體做法

作者建立了3個(gè)表示學(xué)習(xí)網(wǎng)絡(luò)\Gamma(x)撤逢,\Delta(x)\Upsilon(x)粮坞,兩個(gè)outcome prediction網(wǎng)絡(luò)\{h^{i}(\Delta(x), \Upsilon(x)) \}_{i=1, 2}蚊荣,以及propensity score網(wǎng)絡(luò)\pi_{0}(t|\Gamma(x), \Delta(x))。按照CFR-IS[1]中提出的邏輯莫杈,計(jì)算公式(3)互例,也就是weighted supervised learning of factual。值得注意的是筝闹,\omega(t_i, \Delta(x_i))是只基于confounder的媳叨。\omega(t_i, \Delta(x_i))的具體公式,可以參見(jiàn)CFR-IS[1]关顷。公式(5)是為了更好的學(xué)習(xí)這個(gè)weight而引入的propensity score學(xué)習(xí)loss糊秆,也可以參見(jiàn)CFR-IS[1]。

loss function

值得重點(diǎn)關(guān)注的是公式(4)议双,其不像CFR-IS[1]和[CFR][3]等一系列方法一樣扩然,直接在所有covariates學(xué)習(xí)到的樣本表示上消減discrepancy。而是巧妙地利用了聋伦,collider的結(jié)構(gòu)夫偶,在不觀測(cè)到outcome Y的情況下,T\Upsilon是相互獨(dú)立的觉增。所以兵拢,可以通過(guò)不斷地消除不同treatment下\Upsilon(x)的差異,來(lái)減少selection bias逾礁。

代碼實(shí)現(xiàn)

(留坑待填...)

心得體會(huì)

3 type or 2 type

與RSB不同说铃,DR-CFR把三種隱變量拆解的很清楚,而沒(méi)有把confounder和outcome predictor混合在一起嘹履。這樣做的好處是腻扇,沒(méi)有混合的confounder,可以單獨(dú)的用來(lái)做樣本加權(quán)來(lái)輔助解決selection bias的問(wèn)題砾嫉。同時(shí)confounder和treatment predictor可以用來(lái)更好的估計(jì)propensity score幼苛,而不會(huì)引入outcome predictor這種噪聲。

make use of collider

利用collider結(jié)果焕刮,來(lái)消除\Upsilon的分布差異舶沿,從而減少selection bias是非常巧妙地思路墙杯。這樣減少了需要計(jì)算分布差異的向量的維度(原來(lái)是維度很高的X,現(xiàn)在是低維度的\Upsilon)括荡,能夠解決CFR-IS[1]提出的disc過(guò)小的問(wèn)題高镐。

文章引用

[1] Hassanpour, N., & Greiner, R. (2019). CounterFactual Regression with Importance Sampling Weights. IJCAI.
[2] Zhang, Z., Lan, Q., Ding, L., Wang, Y., Hassanpour, N., & Greiner, R. (2019). Reducing Selection Bias in Counterfactual Reasoning for Individual Treatment Effects Estimation. ArXiv, abs/1912.09040.
[3] Shalit, U., Johansson, F.D., & Sontag, D. (2017). Estimating individual treatment effect: generalization bounds and algorithms. ICML.

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市畸冲,隨后出現(xiàn)的幾起案子嫉髓,更是在濱河造成了極大的恐慌,老刑警劉巖邑闲,帶你破解...
    沈念sama閱讀 211,376評(píng)論 6 491
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件算行,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡监憎,警方通過(guò)查閱死者的電腦和手機(jī)纱意,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,126評(píng)論 2 385
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)鲸阔,“玉大人偷霉,你說(shuō)我怎么就攤上這事『稚福” “怎么了类少?”我有些...
    開封第一講書人閱讀 156,966評(píng)論 0 347
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)渔扎。 經(jīng)常有香客問(wèn)我硫狞,道長(zhǎng),這世上最難降的妖魔是什么晃痴? 我笑而不...
    開封第一講書人閱讀 56,432評(píng)論 1 283
  • 正文 為了忘掉前任残吩,我火速辦了婚禮,結(jié)果婚禮上倘核,老公的妹妹穿的比我還像新娘泣侮。我一直安慰自己,他們只是感情好紧唱,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,519評(píng)論 6 385
  • 文/花漫 我一把揭開白布活尊。 她就那樣靜靜地躺著,像睡著了一般漏益。 火紅的嫁衣襯著肌膚如雪蛹锰。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,792評(píng)論 1 290
  • 那天绰疤,我揣著相機(jī)與錄音铜犬,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛翎苫,可吹牛的內(nèi)容都是我干的权埠。 我是一名探鬼主播榨了,決...
    沈念sama閱讀 38,933評(píng)論 3 406
  • 文/蒼蘭香墨 我猛地睜開眼煎谍,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了龙屉?” 一聲冷哼從身側(cè)響起呐粘,我...
    開封第一講書人閱讀 37,701評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎转捕,沒(méi)想到半個(gè)月后作岖,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,143評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡五芝,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,488評(píng)論 2 327
  • 正文 我和宋清朗相戀三年痘儡,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片枢步。...
    茶點(diǎn)故事閱讀 38,626評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡沉删,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出醉途,到底是詐尸還是另有隱情矾瑰,我是刑警寧澤,帶...
    沈念sama閱讀 34,292評(píng)論 4 329
  • 正文 年R本政府宣布隘擎,位于F島的核電站殴穴,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏货葬。R本人自食惡果不足惜采幌,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,896評(píng)論 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望震桶。 院中可真熱鬧休傍,春花似錦、人聲如沸尼夺。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,742評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)淤堵。三九已至寝衫,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間拐邪,已是汗流浹背慰毅。 一陣腳步聲響...
    開封第一講書人閱讀 31,977評(píng)論 1 265
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留扎阶,地道東北人汹胃。 一個(gè)月前我還...
    沈念sama閱讀 46,324評(píng)論 2 360
  • 正文 我出身青樓婶芭,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親着饥。 傳聞我的和親對(duì)象是個(gè)殘疾皇子犀农,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,494評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容