本篇文章為天池三月場讀書會《可解釋機(jī)器學(xué)習(xí)》的內(nèi)容概述和項(xiàng)目實(shí)戰(zhàn)分享项滑,旨在為推廣機(jī)器學(xué)習(xí)可解釋性的應(yīng)用提供一定幫助简珠。
本次直播分享視頻和實(shí)踐代碼以及PP獲取地址:https://tianchi.aliyun.com/specials/promotion/activity/bookclub
目錄
內(nèi)容分享
? 為什么我們需要可解釋機(jī)器學(xué)習(xí)
? 《可解釋機(jī)器學(xué)習(xí)》的內(nèi)容介紹
1澎粟、可解釋的模型
2板乙、模型無關(guān)的解釋方法
3、基于樣本的解釋方法
4、神經(jīng)網(wǎng)絡(luò)的解釋方法
實(shí)戰(zhàn)分析
以下為內(nèi)容分享
在機(jī)器學(xué)習(xí)逐漸黑盒化的情況下蒋伦,人們對模型的可解釋性也提出了要求》偃担可解釋人工智能(XAI)被列為數(shù)據(jù)和分析技術(shù)領(lǐng)域的top10重要趨勢之一痕届。在2017年,美國國防部開展了XAI計(jì)劃;在2018年研叫,歐洲強(qiáng)調(diào)對可解釋機(jī)器學(xué)習(xí)的需求锤窑。此外,谷歌微軟等公司也開展對可解釋機(jī)器學(xué)習(xí)相關(guān)技術(shù)的研究嚷炉。
為什么我們需要可解釋機(jī)器學(xué)習(xí)
從多個方面可知渊啰,我們需要可解釋機(jī)器學(xué)習(xí):
社會對AI的依賴性(無人駕駛、安全申屹、金融)绘证。這是因?yàn)槲覀兊纳鐣绕鹨酝魏螘r(shí)候都更依賴人工智能,這促使我們很需要了解模型哗讥。比如說嚷那,如果無人駕駛過程中出現(xiàn)事故,那我們應(yīng)該能過瞄準(zhǔn)哪些部件出錯忌栅,或者哪些部門應(yīng)該為這次事故買單车酣。
用戶需要可解釋性增強(qiáng)信任曲稼。從用戶的角度來說索绪,用戶需要明白這些決策的后果,如果說數(shù)據(jù)會用用戶的私人信息贫悄,那對用戶而言這是一件很恐懼的事情瑞驱。
監(jiān)管機(jī)構(gòu)需要可解釋性。對于可能會違反規(guī)則的公司窄坦,比如說泄漏內(nèi)幕信息唤反,我們應(yīng)該能夠發(fā)現(xiàn)。
模型設(shè)計(jì)者需要解釋去調(diào)試模型鸭津。
解釋方法有助于科學(xué)知識發(fā)現(xiàn)彤侍,在醫(yī)學(xué)、生態(tài)學(xué)等諸多領(lǐng)域中可解釋性發(fā)揮重要作用逆趋。
在可解釋機(jī)器學(xué)習(xí)和可解釋性的領(lǐng)域中盏阶,還有一些經(jīng)典案例,有助于理解可解釋性和可解釋機(jī)器學(xué)習(xí)的重要性:
哮喘和肺炎的案例闻书。由于神經(jīng)網(wǎng)絡(luò)的錯誤無法解釋名斟,導(dǎo)致神經(jīng)網(wǎng)絡(luò)模型無法用于臨床試驗(yàn)。
在狼和狗的圖像分類中魄眉,解釋發(fā)現(xiàn)模型使用背景中的雪作為區(qū)分的特征砰盐,而不是動物本身。
金融部門發(fā)現(xiàn)將id作為最重要的特征坑律。
《可解釋機(jī)器學(xué)習(xí)》的內(nèi)容介紹
可解釋機(jī)器學(xué)習(xí)可以從三個角度進(jìn)行分類:
第一個分類是內(nèi)置/內(nèi)在可解釋性以及事后可解釋性岩梳。內(nèi)置可解釋性是將可解釋模塊嵌入到模型中,比如說線性模型的權(quán)重、決策樹的樹結(jié)構(gòu)冀值。另外一種是事后可解釋性淘捡,這是在模型訓(xùn)練結(jié)束后使用解釋技術(shù)去解釋模型。
第二種分類是特定于模型的解釋和模型無關(guān)的解釋池摧,簡單的說焦除,特定于模型的解釋這意味著必須將其應(yīng)用到特定的模型體系結(jié)構(gòu)中。而模型無關(guān)的解釋意味著解釋方法與所用模型無關(guān)聯(lián)作彤,這種解釋方法應(yīng)用范圍廣膘魄。
第三種分類是全局解釋和局部解釋。全局解釋是解釋模型的全局行為竭讳。局部解釋是在單條數(shù)據(jù)或者說單個實(shí)例上的解釋创葡。
《可解釋機(jī)器學(xué)習(xí)》書將可解釋性方法分為四個模塊進(jìn)行介紹,包括可解釋的模型绢慢、模型無關(guān)的解釋方法灿渴、基于樣本的解釋和神經(jīng)網(wǎng)絡(luò)解釋。同時(shí)胰舆,在每一節(jié)的內(nèi)容中骚露,分析了包括對方法的直觀描述、從數(shù)學(xué)層面的理解缚窿、還有在數(shù)據(jù)集上的測試和解釋過程棘幸、對方法優(yōu)缺點(diǎn)的描述、以及介紹用于實(shí)現(xiàn)的工具倦零。
可解釋的模型
可解釋的模型是指模型內(nèi)置可解釋性误续,包括簡單的樹模型和線性回歸,以及運(yùn)用正則化技巧扫茅。
首先蹋嵌,如果模型是線性的,那么模型的權(quán)重就可以表示特征的重要性葫隙,在線性模型中我們可以用t統(tǒng)計(jì)量去表示特征重要性栽烂。
如果是邏輯回歸,那我們同樣可以用權(quán)重去表示特征的重要性停蕉。因?yàn)檫壿嫽貧w也可以寫成線性回歸的形式愕鼓,等式右邊是加權(quán)和,左邊用連接函數(shù)和概率分布表示慧起。最后用幾率表示邏輯模型中的特征重要性菇晃。
此外,線性模型約束結(jié)果為高斯分布蚓挤、特征無交互磺送、結(jié)果與特征間關(guān)系為線性驻子,我們分別可以用廣義線性模型、特征交互和廣義加性模型去解決估灿。
自身具有可解釋性的模型還有決策樹和決策規(guī)則崇呵。決策規(guī)則學(xué)習(xí)if-then規(guī)則,有三個流派馅袁,各自代表性的方法分別為OneR域慷、順序覆蓋和貝葉斯規(guī)則列表。OneR是學(xué)習(xí)單條規(guī)則汗销;順序覆蓋是迭代地學(xué)習(xí)規(guī)則并刪除新規(guī)則覆蓋的數(shù)據(jù)點(diǎn)犹褒;貝葉斯規(guī)則列表是使用貝葉斯統(tǒng)計(jì)將預(yù)挖的頻繁模式組合到?jīng)Q策列表中。而決策樹的樹結(jié)構(gòu)則可以用于解釋模型的決策過程弛针。此外還有rulefit叠骑,貝葉斯模型和k近鄰,它們都具備可解釋性削茁。其中rulefit是學(xué)習(xí)具有原始特征以及很多新特征(決策規(guī)則)的稀疏線性模型宙枷。
除了這些模型,稀疏性也是很重要的思想茧跋,它不僅可以減少過擬合的風(fēng)險(xiǎn)慰丛,也可以提高模型的可解釋性,現(xiàn)在一些學(xué)者的工作就是在稀疏性上進(jìn)行研究厌衔。