AI的可解釋性其實是對人類的可解釋性——AI的原理需要讓人類理解,這樣人類才會信任AI套腹,才會將AI用于實際場景测蹲。那么,AI不能采用人類無法理解的原理嗎崭放?追求可解釋性是否會限制AI的發(fā)展哨苛?
雖然深度學(xué)習(xí)取得了轟動性成果,但是神經(jīng)網(wǎng)絡(luò)的可解釋性一直飽受詬病币砂。如果神經(jīng)網(wǎng)絡(luò)能夠確保給出準確的結(jié)果建峭,那么使用人類無法理解的方式也無可厚非,但是事實上它并不能確保决摧,例如一些對抗樣本就會使它出現(xiàn)令人哭笑不得的錯誤亿蒸。對于神經(jīng)網(wǎng)絡(luò)而言,不可解釋和“含有不可預(yù)知的錯誤”似乎劃上了等號掌桩。因為改進神經(jīng)網(wǎng)絡(luò)的是人類边锁,所以排除神經(jīng)網(wǎng)絡(luò)的bug的過程也是追求可解釋性的過程。除非波岛,人類采用一種自己也無法理解的方式去排除bug茅坛。
雖然人類自身做出的很多判斷也是不可解釋的,但是人類是一個比目前的AI完善得多的系統(tǒng)则拷,因此人類會信任自身灰蛙,而且很多情況下也是迫不得已,畢竟找不到更好的替代物隔躲。在一些情況下摩梧,專業(yè)人士的解釋我們聽不懂,但是出于對同類的信任宣旱,以及我們相信至少有人理解過仅父,我們也會接受。可解釋的系統(tǒng)(例如操作系統(tǒng))也可能含有不可預(yù)知的錯誤笙纤,但是這些錯誤可以追根溯源耗溜,給出一個令人信服的解釋,符合人類追求確定性的心理省容。
人類最怕的是出錯而且找不到出錯原因抖拴,可解釋AI一定程度上是為了迎合人類這個心理而發(fā)展出的方向。雖然如此腥椒,這個方向也有很強的合理性阿宅,因為現(xiàn)階段的AI很難發(fā)展出完全超出人類理解能力的方式,這種情況下笼蛛,人類讓AI的原理可以被人類理解也是完善AI的過程洒放。即使AI理解世界的方式和人類不同,很多原理還是相通的滨砍,人類可以幫助AI解決它自身發(fā)現(xiàn)不了或解決不了的問題往湿。至于未來,當(dāng)AI已經(jīng)遠遠超過人類時惋戏,由于差距太大领追,也許人類再也無法理解AI。相信這時的AI已經(jīng)非常完善了响逢,人類也幫不上忙蔓腐,此時則可以不追求可解釋性。