掌管著四家知名公司(特斯拉努隙、民用航天火箭制造商SpaceX、隧道交通公司The Boring Company和家用太陽(yáng)能板公司Solar City)的伊隆·馬斯克 (Elon Musk)與Facebook的創(chuàng)辦人兼CEO馬克·扎克伯格(Mark Zuckerberg)懟起來(lái)了辜昵。
馬斯克稱荸镊,人工智能是對(duì)人類社會(huì)的“根本性存在威脅”,并且在2015年就與霍金一道預(yù)言堪置,人工智能軍備競(jìng)賽已經(jīng)開(kāi)打躬存。但是,扎克伯格稱舀锨,“人們總說(shuō)人工智能在未來(lái)會(huì)傷害人類岭洲。的確,科技可以被好人也可以被壞人利用坎匿,人們需要對(duì)怎樣打造和怎樣使用科技非常小心盾剩。但有些人以此主張減慢人工智能的研究開(kāi)發(fā)雷激,我覺(jué)得這種言論真的非常可疑告私,我真的無(wú)法理解屎暇。”
馬克斯與扎克伯格的互懟并非全是針?shù)h相對(duì)驻粟,其中至少還包含了一些相同的東西根悼。例如,兩人都認(rèn)為蜀撑,技術(shù)的應(yīng)用有好也有壞挤巡,關(guān)鍵看人們?nèi)绾螌?duì)待。但是酷麦,這種相似還是有區(qū)別的矿卑,至少包含兩個(gè)層次。一是贴铜,即便二人認(rèn)為技術(shù)具有雙面作用(雙刃劍)粪摘,在扎克伯格看來(lái),技術(shù)的負(fù)面作用是次要的绍坝,但在馬斯克看來(lái)徘意,技術(shù)的負(fù)面作用卻是致命的。所以轩褐,二者的相似并非是半斤八兩椎咧,而是差異較大。
第二個(gè)層次的差異則有些巨大把介。扎克伯格認(rèn)為勤讽,即便人工智能可能有害于人類,也不能減慢對(duì)其研發(fā)和利用拗踢。但馬斯克則認(rèn)為脚牍,由于人工智能對(duì)人類有極大危害,從現(xiàn)在起就需要對(duì)人工智能的研發(fā)和利用保持警惕巢墅。
這種差異可以用英國(guó)技術(shù)哲學(xué)家大衛(wèi)·科林格里奇在其《技術(shù)的社會(huì)控制》一書的一種觀點(diǎn)來(lái)解釋和引申诸狭,而這個(gè)觀點(diǎn)其實(shí)是被很多科學(xué)哲學(xué)研究人員所認(rèn)同的,即技術(shù)的控制困境或科林格里奇困境君纫。一項(xiàng)技術(shù)的社會(huì)后果不能在技術(shù)生命的早期被預(yù)料到驯遇。然而,當(dāng)不希望的后果被發(fā)現(xiàn)時(shí)蓄髓,技術(shù)卻往往已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分叉庐,以至于對(duì)它的控制十分困難。
技術(shù)的控制困境可以用更為通俗的例子來(lái)解釋会喝,當(dāng)一件東西或一項(xiàng)技術(shù)在被創(chuàng)造出來(lái)時(shí)就像一個(gè)在火塘邊烤出的香噴噴的山芋一樣陡叠,當(dāng)有人想要更好地食用和品嘗其美味而將其剝掉外衣時(shí)玩郊,山芋掉入火塘內(nèi)(無(wú)論是不小心,還是因?yàn)闋C手抑或其他原因匾竿,山芋都必然會(huì)掉入火塘)瓦宜,全身沾滿灰燼,拍也不是吹也不是岭妖×俦樱可以想到的解決辦法要么忍痛丟棄,要么是用刀切掉四周昵慌。后者盡管還會(huì)讓山芋有一點(diǎn)灰假夺,卻還可食用,只是可食用的份額已經(jīng)減少斋攀。也就是說(shuō)已卷,如果陷入技術(shù)控制的困境,要么是這項(xiàng)技術(shù)被棄用淳蔼,要么是改良侧蘸。
現(xiàn)在,出于擔(dān)心鹉梨,馬斯克提出要對(duì)人工智能預(yù)以特別警惕讳癌,就是考慮到,需要提前對(duì)人工智能置入可控的程序或開(kāi)關(guān)存皂,以便在出現(xiàn)危機(jī)時(shí)能夠管控技術(shù)的危害晌坤。但是,扎克伯克卻是另一種想法旦袋,人工智能當(dāng)然像其他技術(shù)一樣骤菠,可能對(duì)人類有害,但不能因噎廢食疤孕,而是要盡快發(fā)展商乎,出了問(wèn)題,再來(lái)考慮解決的辦法祭阀。所以截亦,馬斯克可以歸為預(yù)防論者,而扎克伯格屬于事后解決者柬讨。
這兩種看問(wèn)題和解決問(wèn)題的方式當(dāng)然各有長(zhǎng)短。預(yù)防論者是未雨綢繆袍啡,但是難以準(zhǔn)確地發(fā)現(xiàn)和解決問(wèn)題踩官;事后解決者是不拿未來(lái)的問(wèn)題來(lái)束縛自己,前進(jìn)的步子會(huì)走得很大和很快境输,然而一旦出現(xiàn)問(wèn)題蔗牡,要付出的解決問(wèn)題的成本就會(huì)很大颖系。
如同人類文明的發(fā)展一樣,人類科技的發(fā)展也基本上是出了問(wèn)題再來(lái)解決問(wèn)題辩越,而不是提前預(yù)計(jì)有什么問(wèn)題嘁扼,像諸葛亮那樣提前預(yù)知并想到解決問(wèn)題的錦囊妙計(jì)的先知是少而又少。所以黔攒,二人的爭(zhēng)議似乎無(wú)解趁啸,只能是對(duì)人工智能的發(fā)展走一步說(shuō)一步。因此督惰,人工智能的發(fā)展就必然會(huì)遇到一些可能遇到的難題和危機(jī)不傅。具體可以表現(xiàn)為幾個(gè)方面。
一是人工智能是人類智慧的化身赏胚,人類所有的優(yōu)點(diǎn)和缺陷人工智能都會(huì)有访娶,如何克服人工智能所必然會(huì)沾染的人的缺陷,如暴力觉阅、謊言崖疤、歧視、偏激典勇、非理性等劫哼,需要有前瞻。
二是痴柔,人工智能的不可預(yù)見(jiàn)性沦偎。不可預(yù)見(jiàn)性不只是人工智能所需要關(guān)注的,而是所有科技發(fā)展和項(xiàng)目都存在的咳蔚,是禍兮福所倚豪嚎,福兮禍所伏的必然體現(xiàn)。正如今天的基因修飾或基因剪刀谈火,利用這樣的技術(shù)當(dāng)然可以修改生命侈询、治療疾病,但也可以創(chuàng)造新的生命甚至超人糯耍,也可以制造新的疾病扔字。
三是温技,人工智能的一些特點(diǎn)具有時(shí)空累積性革为,到一定時(shí)候才會(huì)顯露出來(lái)。正如在種植抗草甘膦(抗農(nóng)達(dá))的轉(zhuǎn)基因大豆田間舵鳞,可以大量使用草甘膦除草劑以殺滅雜草震檩,但不會(huì)殺死抗草甘膦轉(zhuǎn)基因大豆。這種方法固然減輕了農(nóng)民的勞累程度,但時(shí)間一長(zhǎng)抛虏,使用草甘膦除草劑的地方反而引發(fā)了大量耐草甘膦除草劑的雜草博其,并四處蔓延,同時(shí)草甘膦也成為一種致癌物迂猴。
當(dāng)然慕淡,最重要的是,憑借人類的經(jīng)驗(yàn)和想象沸毁,人們最大的擔(dān)心和最不愿看到的是峰髓,師從人類的人工智能極有可能青出于藍(lán)而勝于藍(lán),并且還可能有人類的情感以清,屆時(shí)儿普,人類將何去何從!
人工智能可能出現(xiàn)的危機(jī)不止是這些掷倔,但是不必因?yàn)橛形:屯V拱l(fā)展眉孩,而是要慎重發(fā)展。至于如何慎重勒葱,還得像人類基因組計(jì)劃施行之初那樣浪汪,要召集各方面的專家,議定全面發(fā)展計(jì)劃凛虽,尤其不能缺失科技倫理和法律方面的專家死遭,而不能只是讓技術(shù)專家來(lái)決定人工智能的發(fā)展和進(jìn)程。
原文鏈接:http://www.beijingreview.com.cn/keji/201708/t20170802_800101499.html