【腦機增強問題】OpenAI創(chuàng)始人兼CEO Elon Musk近期提出器予,人類可以延緩因為機器崛起變得無足輕重的命運,辦法是與機器結(jié)合,成為電子人菱肖。
Musk的觀點直截了當:通過利用機器學習和對深度學習這樣的家數(shù),人類大腦與計算機之間足夠先進的接口可以讓人類極大地增強自身能力旭从。
假設(shè)硬件挑戰(zhàn)問題最終被解決了稳强,也還有更大的問題是我們對于這些復(fù)雜的神經(jīng)網(wǎng)絡(luò)究竟是怎么運作的仍難以理解和歸納场仲。
我們信任簡單的技術(shù),比如計算器我們知道它會一直像我們希望那樣計算精確退疫。結(jié)果錯誤幾乎永遠是因為人輸入的錯誤渠缕。
腦機增強的愿景之一是讓我們成為算術(shù)超人。所以有了腦機接口的話褒繁,我們可以不必掏出計算器或者智能手機亦鳞,只需要腦子過一遍公式然后“輔助”機器就可以把答案告訴我們了。
但如果我們試圖接入由深度學習這樣的機器學習提供的更先進功能時澜汤,情況就開始變得有些怪異了蚜迅。
假設(shè)你在機場擔任保安的角色,并且有了一個增強的腦機接口俊抵,機器可以自動掃描你每天看到的成千上萬張人臉谁不,然后警告你可能出現(xiàn)的安全風險。
大多數(shù)機器學習系統(tǒng)都收到一個臭名卓著的問題困擾徽诲,也就是一個人或者對象的外觀出現(xiàn)一點小小的變化都會導(dǎo)致系統(tǒng)對此分類做出災(zāi)難性的錯誤判斷刹帕。把一張人的圖片變動不到1%,機器學習系統(tǒng)可能突然就會以為自己看到的是自行車谎替。
恐怖分子或者犯罪分子可能會利用機器不同的漏洞來繞開安全檢查偷溺,目前的在線安全已經(jīng)出現(xiàn)了這種問題。人類自身盡管存在限制钱贯,但可能對這類漏洞具備免疫力挫掏。
盡管機器學習技術(shù)有不感情用事的美譽,但一樣會像人類那樣存在偏見秩命,如果給它輸送合適的數(shù)據(jù)的話尉共,甚至還會表現(xiàn)出種族主義的行為。這種不可預(yù)測性對人類如何植入機器弃锐,更重要的是如何信任機器具有重大影響袄友。
人類思想是復(fù)雜的、高度動態(tài)的活動霹菊。在上一節(jié)相同的安全場景下剧蚣,就算有了足夠先進的腦機接口,機器如何才能知道需要忽略哪些人類偏見呢旋廷?畢竟鸠按,無意識偏見是我們每個人都面臨的挑戰(zhàn)。如果該技術(shù)是在幫助你面試應(yīng)聘者呢饶碘?
對受信任自主系統(tǒng)的研究涉及到兩方面的問題待诅,一是人類對機器的信任問題,二是機器對人類的信任問題熊镣。
戰(zhàn)爭機器人必須對人類下達的非法命令做出道德決定卑雁,腦機接口發(fā)生的事情正好與之呼應(yīng):機器既要解析人的想法募书,同時也要對人類思維當中深層次的無意識偏見進行過濾。
在防御的場景下测蹲,人類大腦理性的角色正在檢查這一決定是否道德莹捡。但當人類大腦接入機器時,在由于機器利用的數(shù)據(jù)規(guī)模大到大腦無法理解的地步而造成干擾的情況下扣甲,人類又該作何判斷呢篮赢?
從長期來看,這個問題將是人類是不是需要(如果是的話如何)參與到日益由機器來做出決策的過程當中的問題琉挖。很快启泣,機器就將做出沒人能看得明白的醫(yī)療決策。在這個過程當中示辈,人類大腦可以以及應(yīng)該扮演什么樣的角色呢寥茫?
盡管人類最初在腦機系統(tǒng)中也許扮演著“有用”角色,但隨著技術(shù)的不斷改進矾麻,把人納入到這個循環(huán)里面的理由也許會越來越少纱耻。
通過把人類大腦與人工大腦集成起來以保持人類的重要性這個想法很吸引人。有待觀察的是在這里面人腦能作何貢獻险耀,尤其是在技術(shù)的發(fā)展節(jié)奏相對于人腦的進化速度是天壤之別的情況下弄喘。
銀河灣推薦
2017.3.4