人工智能武器的問題,不在于它們將會控制世界浪腐,而在于它們非常容易被重新編程,因此任何人都能夠以低得驚人的預(yù)算顿乒,制作出一臺濫殺無辜的高效機器议街。
智能武器的危險之處在于,軟件工程師可以很輕松地給它重新編程璧榄,使其成為濫殺無辜的機器特漩。
最近一段時間,很多知名人士都對人工智能武器表示了抵制骨杂,但他們給出的原因卻比較偏頗涂身,認為機器人有朝一日將會控制人類。這種說法其實并不合理搓蚪,至少在短期內(nèi)不合理蛤售。但是,人工智能武器所蘊含的危險妒潭,也確實不是那種常規(guī)的悴能、由人類操控的武器可以比擬的。因此要求禁止人工智能武器的呼吁雳灾,也理應(yīng)獲得大家的聲援漠酿。
迫在眉睫的危險
從谷歌無人駕駛汽車的身上,我們可以一瞥人工智能的未來』涯叮現(xiàn)在你試想一下:一個兇惡的黑社會團伙偷走了一輛這樣的車炒嘲,在其頂端加裝了一門火炮,然后給車輛重新編程匈庭,把炮口對準公眾摸吠。如此一來,它就成為了一件人工智能武器嚎花。
各國政府的眼睛是雪亮的寸痢,當然不會看不到這種武器的潛力。美國海軍今年宣布計劃開發(fā)無人機武器紊选,而韓國的Super aEgis II自動炮塔啼止,俄羅斯的Platform-M 戰(zhàn)斗機器也雙雙亮相。
但人工智能武器不會是政府的獨家秘制”眨現(xiàn)在人人都可以買得到搭載GoPro 相機的四軸無人飛行器∠追常現(xiàn)在想象一下,有人開發(fā)了一個簡單的軟件卖词,可以讓它自動飛行巩那。而那個邪惡的黑社會組織吏夯,就是可以把無人駕駛汽車改裝成武器的犯罪團伙,當然也可以把槍支搭載在無人機上面即横,給它重新編程噪生,然后讓它飛到擁擠的公共場所去殺人。
這就是人工智能武器近在眼前的危險东囚,:它們很容易被人利用跺嗽,改裝成濫殺無辜的機器,其危害性遠遠超過了同樣的页藻、但需要有人操作的武器桨嫁。
機器本身并不可怕
斯蒂芬·霍金、宇宙學(xué)家馬克斯·特格馬克以及伊隆·馬斯克和其他很多人都簽署了“未來生活”(Future of Life)請愿書份帐,要求禁止制造使用人工智能武器璃吧。今年1月,馬斯克捐款 1000萬美元給發(fā)起該請愿的機構(gòu)废境。4月份畜挨,聯(lián)合國召開了“殺手機器人”會議,不過沒有產(chǎn)生任何具有持久性的政策決定彬坏。“未來生活”請愿信指出膝晾,人工智能武器的危險非常具體栓始,不出幾年就有可能導(dǎo)致災(zāi)難,需要馬上采取行動來加以避免血当』米可惜的是,它并沒有明確指出臊旭,有哪些人工智能武器已經(jīng)出現(xiàn)在了地平線上落恼。
很多人擔心會出現(xiàn)“終結(jié)者”那樣的世界末日場景:機器人具有了像人類一樣的能力,能夠完全依靠自己與世界交互离熏,而且這些機器人試圖征服世界佳谦。
物理學(xué)家、皇家天文學(xué)家馬丁·里斯爵士就警告說滋戳,災(zāi)難性的場景钻蔑,比如“愚蠢的機器人不按指令行事,或一個網(wǎng)絡(luò)自己有了主見奸鸯∵湫Γ”他在劍橋的同事、哲學(xué)家休·普萊斯也表達了類似的擔憂娄涩,覺得當智能“不受生物學(xué)限制”時窗怒,人類可能無法生存。在兩人的推動下,劍橋大學(xué)組建了生存風險中心(Centre for the Study of Existential Risk)扬虚,以圖避免人類的生存遭受如此巨大的威脅努隙。
這些問題當然很值得研究。但是孔轴,它們遠不如人工智能武器問題那么迫在眉睫盗舰。
我們很快就能開發(fā)出類似于人類的人工智能了嗎?幾乎所有的標準答案都是:不是很快苍苞。很多媒體都說盏筐,雷丁大學(xué)的聊天機器人尤金·古斯特曼(Eugene Goostman)是真正的人工智能,因為它真的讓一些人以為它是一個13歲的男孩晋柱。但是优构,聊天機器人和真正的“像人類一樣的智能”還差多遠呢?計算機科學(xué)家斯科特·阿倫森(Scott Aaronson)的第一個問題就把尤金難住了:“是鞋盒大呢雁竞,還是珠穆朗瑪峰大钦椭?”
盡管這樣,還是有很多人都在“未來生活”請愿信上簽了名碑诉,明確表示要抵制人工智能武器彪腔。原因在于:與擁有自我意識的計算機網(wǎng)絡(luò)不同,在無人駕駛汽車上架機槍現(xiàn)在就可能出現(xiàn)进栽。
人工智能武器的問題德挣,不在于它們將會控制世界,而在于它們非常容易被重新編程快毛,因此任何人都能夠以低得驚人的預(yù)算格嗅,制作出一臺濫殺無辜的高效機器∵氲郏可怕的不是機器本身屯掖,而是黑客可以用比較適中的價格,用它們來做什么樣的事情襟衰。
容易被改造和利用
不妨想象一下:一個正在崛起的的暴君,決心辣手摧毀反對派瀑晒,他擁有一個數(shù)據(jù)庫阀湿,知道每個人對他的忠誠度高低,以及地址和照片瑰妄。在以前陷嘴,暴君需要一支軍隊來完成這個任務(wù),而還需要賄賂士兵间坐,或者給他們洗腦灾挨,才能讓他們槍殺無辜者邑退。
而以后,暴君只需要花上幾千美元劳澄,購買一些搭載自動槍械的無人機地技,就可以如愿以償了。依照摩爾定律(自從晶體管的發(fā)明以來秒拔,1美元成本的計算能力是呈指數(shù)級增長的)莫矗,人工智能無人機的價格某一天會降到和一支AK-47差不多。給四個軟件工程師洗洗腦砂缩,其中就有三個有能力給無人機重新編程作谚,讓它們前去附近異見者的住處和工作場所,當場射殺他們庵芭。無人機犯錯誤的可能性更小一些妹懒,而且也不需要賄賂或者洗腦,最重要的双吆,它們的工作效率比人類士兵高得多眨唬。在國際社會還沒有來得及做出任何反應(yīng)之前,野心勃勃的暴君就已經(jīng)血洗了反對派陣營好乐。
自動化大幅提高了效率匾竿,因此對于任何想要犯下這種暴行的瘋子來說,人工智能武器的門檻也降低了蔚万。當年的獨裁者需要動用一整支軍隊才能做到的事情岭妖,現(xiàn)在只要有點錢的人就能辦到了。
有興趣研發(fā)這種武器的制造商和政府可能會聲稱笛坦,他們可以提供出色的保障措施区转,以確保這些機器不能被重新編程苔巨,不會遭到黑客攻擊版扩。對于這種說法,我們最好是保持懷疑態(tài)度侄泽。電子投票機礁芦、自動取款機、藍光光盤播放機悼尾,甚至飛馳在高速公路上的汽車柿扣,盡管都曾標榜自己有很高的安全性,最近卻都已被黑客攻破闺魏。歷史事實已經(jīng)證明未状,在計算設(shè)備和試圖改變其利用方式的黑客之間,贏家往往是黑客析桥。人工智能武器不可能會是例外司草。
禁用人工智能武器
1925年簽訂的國際條約禁止在戰(zhàn)爭中使用化學(xué)武器和生物武器艰垂。而中空彈(Hollow Point Bullet)早在1899年就被禁用,因為這些武器會導(dǎo)致極大的埋虹、不必要的痛苦猜憎。它們特別容易導(dǎo)致平民傷亡。比如公眾可能會吸入毒氣搔课,醫(yī)生在嘗試取出中空彈時可能會受傷胰柑。這些武器很容易給無辜者造成痛苦和死亡,所以它們遭到了禁用爬泥。
是否有某種類型的人工智能機器同樣也應(yīng)該被禁用呢柬讨?答案是肯定的。如果一種人工智能機器可以很便宜急灭、很容易地改造成高效的無差別大殺器姐浮,那么我們就應(yīng)該制定禁止它的國際公約。這樣的機器與放射性金屬在本質(zhì)上沒有什么不同葬馋。它們都可以和平利用卖鲤,造福人類。但是我們必須小心翼翼地對它們加以管控畴嘶,因為它們很容易被改造成毀滅性武器蛋逾。不同的是,對人工智能機器進行改造窗悯,將其用于破壞性目的区匣,遠比把核電站的反應(yīng)堆改成核武容易得多。
我們應(yīng)該禁止人工智能武器蒋院,這不是因為它們?nèi)季哂胁坏赖碌膶傩钥鞴常且驗槿藗兛梢岳迷诰W(wǎng)上找到的資料,把人工智能武器改裝成“猙獰的嗜血怪物”欺旧。只需一段簡單的代碼姑丑,就可以把很多人工智能武器轉(zhuǎn)變成不亞于化學(xué)武器、生物武器和空心彈的殺人機器辞友。/679868-931fd607c3914de9.gif?imageMogr2/auto-orient/strip)