【嵌牛導讀】:自從20年前深藍(Deep Blue)在國際象棋中擊敗卡斯帕羅夫(Garry Kasparov)赌蔑,該事件就被人們譽為機器智能最權(quán)威的證明蝗柔。谷歌的AlphaGo已經(jīng)在圍棋比賽中以四勝一負(譯者注:原文是三場中獲勝兩局)贏得了韓國棋手李世石绝页,更表明了這些年來人工智能的迅猛進步。機器終會比人類更聰明的預(yù)言即將到來皆撩,但我們似乎并沒有真正理解這個具有劃時代意義的事件的影響扣墩。事實上,我們執(zhí)著于對人工智能的一些嚴重的扛吞、甚至是危險的誤解沮榜。去年年底,SpaceX公司的聯(lián)合創(chuàng)始人伊隆·馬斯克(Elon Musk)警告說喻粹,人工智能會統(tǒng)治世界。此話一出草巡,引發(fā)了對人工智能或譴責或支持的激烈爭論守呜。對于這樣一個重大的未來事件,關(guān)于它是否會發(fā)生山憨,或是以何種形式發(fā)生查乒,各方持巨大的分歧。而當我們考慮到人工智能會帶來巨大的利益的同時郁竟,也可能出現(xiàn)風險玛迄,這一點尤其令人擔憂。不同于其他任何的人類發(fā)明棚亩,人工智能具有重塑人類的潛力蓖议,但它也可能摧毀我們。很難知道該相信什么讥蟆。但借助于計算科學家勒虾,神經(jīng)科學家,和人工智能理論家的創(chuàng)舉瘸彤,我們可以逐漸了解關(guān)于人工智能更清晰的圖景修然。下面是關(guān)于人工智能最常見的誤解和虛傳。
【嵌牛鼻子】:人工智能质况,十大誤解
【嵌牛提問】:人工智能的出現(xiàn)愕宋,許多人還不是很了解,因此结榄,人們對于人工智能哪些誤區(qū)呢?
【嵌牛正文】:
誤解一:“我們永遠不會創(chuàng)造出類似人類智慧的人工智能中贝。”
現(xiàn)實:我們已經(jīng)在一些游戲領(lǐng)域潭陪,如象棋與圍棋雄妥、股市交易和談話等創(chuàng)造出可以與人類智慧匹敵最蕾、甚至超過人類的計算機。 而背后驅(qū)動的計算機和算法只會越來越好老厌;因此瘟则,計算機趕超其他人類活動,將只是個時間問題枝秤。
紐約大學的心理學家加里·馬庫斯(Gary Marcus)說醋拧,在人工智能領(lǐng)域工作的“幾乎每個人”都認為,機器將最終會替代我們自己淀弹。支持者和懷疑論者之間的唯一真正的區(qū)別只是時間框架問題丹壕。像Ray Kurzweil等未來學家認為機器替代人類可能會在幾十年發(fā)生,也有人說薇溃,它可能需要幾個世紀菌赖。
當懷疑論者說這是一個無法解決的技術(shù)問題,或是生物大腦有一些內(nèi)在的獨特之處時沐序,是不能令人信服的琉用。我們的大腦是生物機器,但歸根到底它們?nèi)匀皇菣C器策幼;他們在現(xiàn)實世界中存在邑时,按照物理學的基本規(guī)律運行。沒有什么是不可知的特姐。
◆ ◆ ◆
誤解二:“人工智能將有自覺意識”
現(xiàn)實:關(guān)于機器智能的一個共同的假設(shè)是晶丘,它是自覺的有意識的,也就是說唐含,它會像人類一樣思考浅浮。更重要的是,像微軟聯(lián)合創(chuàng)始人保羅·艾倫的批評者認為捷枯,我們還沒有實現(xiàn)人工普遍智能(Artificial General Intelligence, AGI)脑题,即能夠執(zhí)行任何一項人類能夠進行的智能任務(wù),因為我們?nèi)狈﹃P(guān)于意識的完整科學理論知識體系铜靶。但倫敦帝國大學認知機器人專家默里·沙納漢(Murray Shanahan)指出叔遂,我們應(yīng)該避免混淆這兩個概念。
意識無疑是一個有趣和重要的主題争剿,但我不相信意識是匹敵人類水平的人工智能必要的部分已艰,”他告訴Gizmodo。 “或者蚕苇,更準確地說哩掺,我們用意識這個詞,是為了表明一些心理和認知的屬性涩笤,而這在人類中是緊密相連互有重合的”嚼吞。
我們完全可以想像一個非常聰明的機器盒件,缺乏一個或多個這種屬性。最后舱禽,我們可以建立一個非常聰明的炒刁,但沒有自我意識的,不能主觀或有意識地體驗世界的人工智能誊稚。沙納漢說翔始,將智慧和意識同時融合在一臺機器里也是有可能的,但是里伯,我們不應(yīng)該忽視這樣一個事實城瞎,即智慧和意識是兩個不同的概念。
只是因為一臺機器通過圖靈測試從而證實計算機和人類在智能上無區(qū)別疾瓮,并不意味著它是有意識的脖镀。對我們來說,先進的人工智能可能會導致機器看起來是意識的假象狼电,但是在自我自覺方面认然,它并不比一塊巖石或計算器更能感知自我意識。
◆ ◆ ◆
誤解三:"我們不應(yīng)該害怕人工智能漫萄。“
事實:今年一月盈匾,facebook創(chuàng)始人Mark Zuckerberg說我們不應(yīng)害怕人工智能腾务,他說這將會為世界創(chuàng)造很多令人驚異的好東西。他只對了一半削饵。我們安然享受人工智能所能創(chuàng)造的巨大的好處:從無人駕駛汽車到新藥的制造岩瘦, 然而我們卻無法保證所有通過人工智能所實現(xiàn)的將會是良性的。
一個高度智慧的系統(tǒng)也許能了解完成一個特定任務(wù)所需要的所有知識窿撬,例如解決一個讓人頭痛的財務(wù)問題启昧,或者侵入一個敵人的系統(tǒng)。但除開這些它所專長的特定的領(lǐng)域外劈伴,它很可能非常無知和愚昧密末。Google的DeepMind系統(tǒng)精通于圍棋,然而除了圍棋跛璧,它對于其他領(lǐng)域卻沒有任何推理和邏輯能力严里。
許多類似的系統(tǒng)也可能缺乏深入的安全考慮。一個很好的例子就是由美國和以色列軍方共同開發(fā)的一份非常強大而復雜的武器級病毒系統(tǒng)Stuxnet Virus追城,其原本的作用是為了潛入和攻擊伊朗核武器動力裝置刹碾。此病毒系統(tǒng)卻不慎(至于是有人故意而為之還是純屬意外則不得而知)感染了俄羅斯核武器動力裝置。
攻擊網(wǎng)絡(luò)間諜的Flame病毒
類似的例子還有在中東用于攻擊網(wǎng)絡(luò)間諜的程序:Flame座柱∶灾模可以想象物舒,未來類似Stuxnet或者Flame這樣的系統(tǒng)如若廣泛散布,可能對一些含有有敏感信息的基礎(chǔ)設(shè)施產(chǎn)生一系列不可估量的破壞戏锹。(作者注:在此澄清冠胯,這些病毒并非人工智能,但在將來他們可以輕易加入人工智能景用,因此也將會帶來以上的一些顧慮涵叮。)
◆ ◆ ◆
誤解四:“人工智能由于其極高智能,將不會犯任何錯誤伞插「盍福”
電影《The Invisible Boy》中的超級計算機
事實:Surfing Samurai機器人人工智能研究者和開發(fā)者,Richard Loosemore認為大多數(shù)假設(shè)的人工智能將毀滅世界的情景都非常不符合邏輯媚污。大多數(shù)類似的假設(shè)總是認為人工智能將會說:“我知道毀滅人類文明是由于設(shè)計引起的故障舀瓢,但無論如何我還是很想去做『拿溃”Loosemore指出如果人工智能在打算毀滅人類時京髓,其思路是如此自相矛盾的話,它將在其一生中面臨無數(shù)自相矛盾的邏輯推理商架,也因此會干擾了其認知從而變得非常愚蠢堰怨,而同時根本不足以對我們造成傷害。他同時也斷言蛇摸,那些認為“人工智能只會做程序設(shè)定的任務(wù)”的人备图,將會像在電腦剛剛發(fā)明時那些說電腦將永遠不會具備應(yīng)變能力的謬論的人一樣。
牛津大學人類未來研究所(Future of Humanity Institute)的Peter Mcintyre和Stuart Armstrong對此有不同看法赶袄。他們認為人工智能將很大程度上依賴其程序鎖定揽涮。他們不相信人工智能不會犯錯誤,或者反過來他們沒有聰明到可以理解我們希望他們能做什么饿肺。
McIntyre告訴作者:“從定義上講蒋困,人工智能就是一個在方方面面都比最聰明的人腦要更為聰明的智慧載體”【蠢保“它將會完全知道我們設(shè)計他們來做什么”雪标。McIntyre和Armstrong相信人工智能將只會做其程序編寫的任務(wù),但如果它足夠聰明的話溉跃,它會最終理解法律的精髓和人文的意義汰聋。
McIntyre將人類將來可能面臨的困境和老鼠所面臨的困境做了比較。老鼠將會不停尋求食物和住所喊积,但它們的目標跟人類不想與老鼠共棲一室的目標始終是相互沖突的烹困。他說“正如我們完全能理解老鼠為什么要鉆進我們的屋子里、但仍然不能忍受與老鼠一起生活一樣乾吻,即使人工智能系統(tǒng)理解我們的目標和我們想要什么髓梅,他們?nèi)匀粫X得我們的目標無關(guān)緊要”拟蜻。
◆ ◆ ◆
誤解五:“一個簡單的修補程序?qū)⒔鉀Q人工智能的控制問題】荻觯”
正如電影《機械姬》所描述酝锅,比我們聰明的機器人并不是那么簡單就能控制的
現(xiàn)實:假設(shè)我們創(chuàng)造出強于人類的人工智能,我們將要面對一個嚴重的“控制問題”奢方。未來主義者和人工智能理論家完全不知如何限制和制約一個ASI(超強人工智能)搔扁,一旦它被創(chuàng)造出來,也不知道如何保證它將對人類友好蟋字。最近稿蹲,佐治亞理工的研究人員天真地認為人工智能可以通過閱讀簡單的故事和社會習俗來學習人類價值觀。而問題很可能會遠遠比這復雜鹊奖。
“人們已經(jīng)提出很多簡單的技巧來解決整個人工智能的控制問題苛聘,”阿姆斯特朗說。具體例子包括將ASI程序編輯成讓它希望取悅?cè)祟愔揖郏蛘邇H僅作為人類的工具设哗。換個角度說,我們可以集成一個概念两蟀,比如愛和尊重网梢,把這些寫入它的源代碼。并且為了防止它采用超簡單的赂毯、單色的觀點來認識世界战虏,它可以被編程來欣賞知識、文化和社會多樣性欢瞪。
Isaac Asimov的“機器人控制三定律”只能是科幻元素,要解決人工智能控制問題徐裸,我們不能只靠理論或幻想遣鼓。
但是,這些解決方案要么太簡單重贺,(比如嘗試將人類喜好的整個的復雜性用精巧的語言來定義)骑祟,要么包羅人類所有的復雜到簡單的單詞、詞組或思想气笙。舉個例子來說次企,試圖給出一個連貫的、可操作的定義“尊重”一次潜圃,是非常困難的缸棵。
“這并不是說,這種簡單的技巧是無用的谭期,許多此類建議揭示了好的研究途徑堵第,而且有助于解決最終的問題吧凉,”阿姆斯特朗說。 “但是踏志,在沒有大量工作來發(fā)展和探索這些技巧之前阀捅,我們不能完全信賴它們≌胗啵”
◆ ◆ ◆
誤解六:"我們將被超人工智能毀滅饲鄙。"
現(xiàn)實:現(xiàn)在還沒有證據(jù)保證人工智能會毀滅我們,或者我們將來一定沒有辦法來控制它圆雁。正如人工智能理論家Eliezer Yudkowsky所說:“人工智能不恨你忍级,也不愛你,但你是由可以用做別的東西的原子組成的”摸柄。
他的書《超級智能》中寫道:路徑颤练,危險,策略驱负,牛津大學哲學家Nick Bostrom寫道嗦玖,真正的超級智能人工一旦實現(xiàn),可能會造成比以往人類任何發(fā)明更大的風險跃脊。著名思想家Elon Musk宇挫,比爾·蓋茨和斯蒂芬·霍金(霍金警告說,人工智能可能是我們“歷史上最嚴重的錯誤”)也同樣警告這一點酪术。
Mclntyre說器瘪,對于超級人工智能可以實現(xiàn)的大多數(shù)目標,有很好的理由讓人類退出這些過程绘雁。
“一個人工智能或許能夠非常準確地預(yù)測挚币,我們不希望犧牲消費者蕊退、環(huán)境和非人類動物的利益為代價,來給某個公司帶來最大化的利潤,”McIntyre說润努。 “因此勃刨,它會有強烈的動機以確保自己不被中斷或干擾磨确,包括被關(guān)閉锋恬,或其目標被改變,因為這樣這些目標將無法實現(xiàn)杠娱⊥炖危”
除非ASI的目標精確地反映我們自己的目標,McIntyre表示摊求,它將有很好的理由不讓我們停止它的操作禽拔。并且由于它的智力水平大大超過了我們自己的,我們并不能做些什么(來阻止它)。
但萬事無絕對奏赘,也沒有人可以肯定人工智能會采取何種形式寥闪,以及它如何可能危及人類。Musk指出磨淌,人工智能實際上可以用于控制疲憋、調(diào)節(jié)和監(jiān)控其他人工智能×褐唬或者缚柳,它可能被灌輸人類價值,以及強制要求友好對待人類搪锣。
◆ ◆ ◆
誤解七:“超人工智能會很友好秋忙。”
現(xiàn)實:哲學家Immanuel Kant相信智能與道德密切相關(guān)构舟。神經(jīng)學家David Chalmers也在他自己的論文“The Singularity: A Philosophical Analysis(奇點:從哲學角度分析)”中采用了Kant這一著名的觀點灰追,并將其用在了解釋超人工智能的崛起之中。
如果這是正確的狗超,那我們可以預(yù)測“智能爆炸”將會同時引發(fā)一場“道德爆炸”弹澎。我們還可以預(yù)測由此產(chǎn)生的超人工智能系統(tǒng)將會在超智能的同時也是超道德的,因此我們大概可以推測這是良性的努咐。
但是認為先進的人工智能會是開明并且天生就好的觀點是站不住腳的苦蒿。正如Armstrong所指出的,有許多戰(zhàn)犯都是很聰明的渗稍。智力與道德之間的聯(lián)系好像并不存在于人類身上佩迟,因此他對這一聯(lián)系存在于其他智能形式的假設(shè)提出了質(zhì)疑。
他說:“行為不道德的聰明人可能會給他愚蠢的同胞們帶來更大規(guī)模的傷害竿屹。智力恰好賦予了他們更聰明地做壞事的能力报强,而并不會使他們變好」叭迹”
正如McIntyre所解釋的秉溉,一個代理達成目標的能力并不取決于這個目標一開始是否聰明。他說:“如果我們的人工智能具有獨一無二的在變聰明的同時會變得更加道德的能力扼雏,那我們是非常幸運的坚嗜。但是夯膀,單純依靠運氣面對某些可能會決定我們未來的東西诗充,并不是很好的策略∮战ǎ”
◆ ◆ ◆
誤解八:“來自人工智能的危險和機器人是一回事蝴蜓。”
現(xiàn)實:這是一個特別常見的錯誤,一個被不加批判的媒體和《終結(jié)者》這類好萊塢電影延續(xù)的錯誤茎匠。
如果像天網(wǎng)(Skynet)那樣的超級人工智能真的想毀滅人類格仲,它不會使用揮舞機關(guān)槍的機器人。它會使用更有效的手段诵冒,比如:釋放生物瘟疫凯肋,或發(fā)動基于納米技術(shù)的灰蠱災(zāi)難∑觯或者侮东,它可以直接破壞掉大氣層。人工智能是潛在的危險豹芯,并不因為它意味著機器人的未來悄雅,而是它將如何對世界展現(xiàn)它的存在。
◆ ◆ ◆
誤解九:“科幻小說是對未來人工智能的精神描述铁蹈】硐校”
人類思想如此豐富,所以各種科幻中的人工智能也是多種多樣的
現(xiàn)實:當然握牧,很多年以來作家和未來學家都利用科幻來作夢幻般的預(yù)言容诬,而是由ASI帶來的視界是一個不同顏色的馬。更重要的是我碟,人工智能是非撤虐福“不人道的”,因此我們很難了解和預(yù)測其準確性質(zhì)和形式矫俺。
要想讓科幻來娛樂弱小而可憐的人類吱殉,我們需要將“人工智能”描述成類似我們自己±逋校“人類的思想也是千差萬別的;即使在人類內(nèi)部友雳,你可能和你的鄰居完全不同,而這種差別和所有可能存在的頭腦相比是微不足道的铅匹⊙荷蓿“麥金太爾(McIntyre)說。
大多數(shù)科幻是為了講述一個引人入勝的故事包斑,并不需要在科學上準確無誤流礁。因此,在科幻中即使是對等的實體之間也往往存在沖突罗丰。 “想象一下神帅,的是,”阿姆斯特朗說萌抵,“如果人工智能沒有意識找御、喜悅元镀、愛恨,根除了一切人類的痕跡霎桅,以實現(xiàn)一個無趣的目標栖疑,那將是一個多么無聊的故事√鲜唬”
◆ ◆ ◆
誤解十:“人工智能將接手我們所有的工作遇革,這太可怕了〗腋猓”
現(xiàn)實:人工智能自動完成人類工作的能力與它摧毀人類的潛能是兩回事澳淑。但《機器人的崛起》一書的作者馬丁 · 福特卻認為:技術(shù)的進步和未來的失業(yè)往往是密不可分的。思考人工智能在未來可能扮演的角色無可厚非插佛,但是我們更應(yīng)該關(guān)注的是后面幾十年的問題杠巡。人工智能主要完成的還是大規(guī)模自動化的工作。
毫無疑問雇寇,人工智能將徹底接管包括從工廠做工到上層的白領(lǐng)工作在內(nèi)的許多現(xiàn)有的工作崗位氢拥。有專家預(yù)測,在美國有一半的工作崗位可能在不久的將來實現(xiàn)自動化锨侯。
但這并不意味著我們不能適應(yīng)這種巨變嫩海。通過人工智能將自己從紛雜的體力和腦力勞動中解放出來,不也是人類的美好愿景嗎囚痴?
“在接下來的幾十年中叁怪,人工智能會摧毀許多工作,但是這是一件好事深滚,”米勒告訴Gizmodo奕谭。例如,自動駕駛汽車可以取代卡車司機痴荐,這將減少運輸成本血柳,從而降低它的商品購買價格。 “如果你是一名卡車司機生兆,那你可能輸了难捌,但其他人會得到有效加薪,他們的薪水可以買更多的東西鸦难,”米勒說根吁。 “而這些人將錢節(jié)省下來可以購買其他商品和服務(wù),因而會創(chuàng)造新的工作合蔽』鞯校”
所以最終的結(jié)果可能是,人工智能會產(chǎn)生創(chuàng)造財富的新途徑辈末,而人類可以騰出來做其他事情愚争。而在人工智能的進步將帶動其他領(lǐng)域,尤其是制造業(yè)的發(fā)展挤聘。在未來轰枝,滿足人類需求會變得更加容易,而不是更難组去。