學(xué)號:17021211100
轉(zhuǎn)載自http://mp.weixin.qq.com/s/TuKFUYID4npps8odBlrKOw有修改
【嵌牛導(dǎo)讀】:人工智能企圖了解智能的實質(zhì)走哺,并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機器糙置。研究范疇包括自然語言處理盛卡、機器學(xué)習(xí)系任、神經(jīng)網(wǎng)絡(luò)新症、模式識別步氏、智能搜索等;應(yīng)用領(lǐng)域包括機器翻譯徒爹、語言和圖像理解荚醒、自動程序設(shè)計、專家系統(tǒng)等隆嗅。
【嵌牛鼻子】:人工智能界阁;
【嵌牛提問】:人工智能對未來生活的改變?
【嵌牛正文】:
人們對于人工智能這個熱點話題仍說法各異胖喳。
像史蒂芬·霍金泡躯、伊隆·馬斯克、比爾·蓋茨這樣的專家丽焊,最近越發(fā)看重它的潛力和威脅较剃。在讀完尼克·博斯特倫《超級人工智能》一書后,馬斯克大聲質(zhì)問技健,人工智能是否是”我們現(xiàn)在最大的威脅”写穴。
我們對于人工智能流行的說法被人類倫理所扭曲了。人們對于人工智能的分歧不僅僅體現(xiàn)在它的威脅上雌贱,對于強人工智能是否會出現(xiàn)也有不同的看法啊送。一些人認(rèn)為具備人類相當(dāng)水平的“強人工智能”(hard A.I.)永遠(yuǎn)不可能存在,但也有人認(rèn)為這種趨勢將勢不可擋欣孤。但在很多情況下馋没,這些爭論可能偏離了真正的含義:人工智能在存在和思想上,可能和人類自身形式有很大的不同降传。
簡而言之篷朵,這種觀點表明,一種成熟的人工智能不一定是仿人的智能婆排,或者由我們支配款票。如果我們以錯誤的方式去尋找人工智能,它出現(xiàn)的形式可能就會是:難以識別泽论、風(fēng)險擴大并且延遲收益。
這不僅僅是對于未來的擔(dān)憂卡乾。人工智能早已走出實驗室翼悴,并且深入日常生活。“弱人工智能”(Soft A.I.)鹦赎,比如蘋果的Siri和亞馬遜的推薦引擎谍椅,以及人工智能基礎(chǔ)設(shè)施,比如高頻算法交易古话,智能汽車和工業(yè)機器人已成為日常生活的一部分雏吭,與我們的工具使用、城市發(fā)展陪踩、經(jīng)濟建設(shè)和商品貿(mào)易息息相關(guān)杖们。
不幸的是,人工智能的主流觀點肩狂,起碼在無數(shù)的電影摘完、游戲和書籍中描述的,依然假定那些與人相似的特征(憤怒傻谁、嫉妒孝治、困惑、貪婪审磁、驕傲谈飒、欲望,更不用說冷漠疏遠(yuǎn))是人工智能最重要的部分。這種錯誤的人類中心主義也許和現(xiàn)在的人工智能研究相去甚遠(yuǎn)态蒂,但這也側(cè)面反映了我們的文化如何看待自我和高級合成認(rèn)知(advanced syntheticcognition)杭措。
在斯蒂文·斯皮爾伯格2001年的電影《A.I. Artificial Intelligence》中,那個小男孩機器人想要成為真正的男孩吃媒,雖然他只有一顆小金屬心靈瓤介,而天網(wǎng)在電影《Terminator》中則沉迷于人類毀滅。我們不假思索的假定赘那,斯坦利·庫布里克和亞瑟·查理斯·克拉克1968年的電影《2001: A Space Odyssey》里的巨石Monoliths是在和人類主人公大衛(wèi)交流刑桑,而不是他宇宙飛船上的人工智能:HAL 9000。
我認(rèn)為我們應(yīng)該停止這樣的想法:真正的人工智能必須深切考慮到人類募舟,尤其是以人作為它的關(guān)注點和動機祠斧。也許我們真正害怕的,并非是一臺殺死我們的大機器拱礁,而是它認(rèn)為我們無關(guān)緊要琢锋。這比被視作敵人更加糟糕。
除非我們假設(shè)呢灶,類人智能代表了所有可能的智能形式(這當(dāng)然是自欺欺人)吴超,否則為什么要根據(jù)和我們的相似性來定義先進的人工智能?畢竟“智能”非常難以定義鸯乃,而人類智能又無法簡單地包含所有可能性鲸阻。即便在實驗室它具有實用的價值,但從文化角度,它還是適得其反鸟悴,是不道德甚至是危險的陈辱。
我們不需要如此狹隘和自戀的人工智能觀念,所以不能僅僅把我們自身的特性映射到機器的版本中细诸。如果把這種狹隘的觀念作為人類和人工智能溝通的基礎(chǔ)沛贪,這個前提就已經(jīng)是錯誤的了。更不用說震贵,歷史上不同群體的“第一次接觸”利赋,即使是在人類之間,也往往是不愉快的經(jīng)歷
II.
從雷德利·斯科特的《銀翼殺手》到斯派克·瓊斯的《她》屏歹,這些無數(shù)的科幻電影在測試人工智能的能力的時候隐砸,都要看它是否能被“以人相待”。這種觀點從人工智能研究開始一直伴隨到現(xiàn)在蝙眶。這最早可以回溯到1950 年季希,英國數(shù)學(xué)家阿蘭·圖靈發(fā)表了論文《計算機器與智能》,那時候他提出了“模仿游戲”測試幽纷,也就是我們今天說的“圖靈測試”式塌。雖然版本有所不同,但它揭示了我們研究人工智能文化和道德的方法論定義了人工智能本身:無論是好的還是壞的友浸。
最讓人熟悉的版本是:提問者向兩個隱藏的參賽者提問峰尝,一個是人,另一個是計算機收恢。圖靈認(rèn)為武学,如果提問者不能區(qū)分兩者的身份,并且計算機能成功假扮成人伦意,那么就成功通過測試火窒。從實踐目的來說,計算機不就是“智能”的嗎驮肉?
計算機需要假裝成人以通過人類的測試熏矿,而圖靈需要隱藏同性戀傾向以通過“直男測試”,這真是有趣的巧合离钝。
遺憾的是票编,更多的人僅僅“知道”圖靈測試,而沒有真正閱讀過卵渴。圖靈的文本是非凡慧域、奇妙而令人驚訝的。圖靈說他的測試是一種流行客廳游戲的變種:有兩個藏在幕后的參賽者浪读,一位女性(參賽者A)和一位男性(參賽者B)吊趾,他們需要努力說服宛裕,讓第三個人認(rèn)為自己是一名女性,通過手寫回答問題的方式论泛。為了獲勝,一個參賽者必須令人信服的扮演自己蛹屿,而另一方需要假扮成另一種性別屁奏。圖靈用計算機取代了玩家A,在字面上你可以理解為错负,計算機不僅僅要扮演一個人坟瓢,而且得扮演成女性才能通過測試。
在其他版本的測試中犹撒,參賽者B可以是男性折联,也可以是女性。游戲里可以一個人假裝识颊、或者兩人假裝诚镰、抑或兩人都不假裝,也可以是完全不同的游戲祥款。既然我們讓計算機參賽清笨,我們可以讓它假扮成女性或男性,這個角色假扮成女性刃跛,讓詢問者分不清男女抠艾。也可以玩的更加復(fù)雜,計算機假扮成試圖假裝女人的男人桨昙,同時還有一個真的人也在這么做检号。甚至說,讓計算機假扮成為這樣的女性蛙酪,她假扮成試圖假裝女人的男人齐苛。畢竟在現(xiàn)實生活中,這些情況都有可能發(fā)生滤否。
莫騰·泰杜姆導(dǎo)演的《模仿游戲》獲得了2014年奧斯卡大獎脸狸。在那個同性戀被視作犯罪的年代,即便是身為數(shù)學(xué)家的圖靈也得假扮成“直男”藐俺。而當(dāng)他的性傾向暴露時炊甲,不得不接受可怕的“化學(xué)閹割”治療。最終欲芹,在巨大的身體和精神痛楚下卿啡,圖靈自殺了。這是歷史上荒誕的插曲菱父,當(dāng)時他對擊敗希特勒軍隊的貢獻(xiàn)還是一個國家機密颈娜。直到最近剑逃,圖靈才得到了英女王的皇家豁免,然而類似法律下被懲處的其他成千上萬的英國男子卻未被豁免官辽。
計算機被要求通過測試來證明智力蛹磺,和圖靈被要求假扮成直男來通過測試,這里面有著諷刺的對應(yīng)同仆,既嘩眾取寵也極度不公平萤捆。
無論是以白人或黑人、男人或女人的身份通過測試俗批,基本上都取決于他人的觀察和解釋俗或。因為其他人都已經(jīng)習(xí)慣于傳統(tǒng)的暗示(種族,性岁忘,性別辛慰,物種等),所以無論誰想通過測試干像,都只有和觀察者進行共謀帅腌。至于人工智能是否愿意這么做,或者僅僅被拖過來完成測試蝠筑,那就是另一個問題了狞膘。無論如何,通過與否更多關(guān)乎觀眾什乙,而非被測試者的表現(xiàn)挽封。
我們最好這樣假定,在宇宙中思考是多樣化的行為臣镣,即便是外星人也會思考辅愿,人類并非是特殊的個案。相對于人類教育機器如何思考忆某,人工智能真正的哲學(xué)問題是点待,機器如何教育人類在一個更完整和真實的維度里思考。
III.
過去我們總是根據(jù)模擬人類思維的能力來定義人工智能存在弃舒,在未來看來癞埠,這種想法其實只是一種奇怪的物種偏見。在這種想法下聋呢,早期人工智能研究者試圖在機器中重建人類思維苗踪,但這根本行不通。相反削锰,現(xiàn)代的研究者認(rèn)為通铲,如果機器能在特定領(lǐng)域里把事情做好,就可以被稱作“智能的”器贩,而不是它能在多大程度反映出人類思想颅夺。Stuart Russell和PeterNorvig(現(xiàn)任谷歌研究院主任)在他們重要的著作《人工智能》中就指出了朋截,對生物形態(tài)的簡單模仿并不足以應(yīng)用于復(fù)雜精巧的現(xiàn)代科技:飛機并不以鳥類的方式飛行,我們在測試飛機是否是“真正的”飛行器時吧黄,當(dāng)然也不會去看看鳥類是否會把飛機與同類混淆部服。既然如此,為什么人們對人工智能采用了這樣的判斷標(biāo)準(zhǔn)呢稚字?現(xiàn)代務(wù)實的人工智能研究并不會把圖靈測試作為成功的標(biāo)準(zhǔn)饲宿,然而在流行文化中,這種人類中心主義的測試卻在長期受到重視胆描。人們對于人工智能的想象大多數(shù)還停留在迪士尼電影中會說話的動物這一層次上,而這其實不過是一種幼稚的口技而已仗阅。
有人會說:把模仿人類形態(tài)作為人工智能的先決條件不夠科學(xué)昌讲,是一種“前哥白尼”時代的觀點。那么這種觀點真正的問題在哪里呢减噪?如果在未來短绸,我們?nèi)粘K姷娜斯ぶ悄芏季哂心撤N人性,情形會怎么樣呢筹裕?好的方面是我們會與機器智慧建立一種更為真誠而清醒的關(guān)系醋闭,而壞的方面是,如果我們對生命體抱有這樣的幻想朝卒,將會損失更多可能性证逻。有些哲學(xué)家已經(jīng)思考賦予有感情的機器以倫理權(quán)利了,但我想要說的不是這個抗斤,事實上囚企,我們在思考這些人工智能體的時候,應(yīng)該尋找更為真實的視角瑞眼。
馬斯克龙宏、蓋茨和霍金關(guān)于人工智能威脅的言論引起了廣泛的關(guān)注。他們的觀點很重要伤疙,但是银酗,恐怕大多數(shù)讀者都誤解了他們。如果我們像1942年阿西莫夫“機器人三大定律“一樣徒像,寄希望于給機器人編程黍特,禁止它們傷害人類,首先我們就要讓機器人能夠理解什么是“人類”厨姚,以及什么是“傷害”衅澈。機器人并不需要做什么惡毒的行為就可以傷害到人類,一個最簡單的例子就是:它們只要把人類正常含義的指令以一種機械而極端的方式執(zhí)行谬墙,就足以帶來一場災(zāi)難今布。人工智能真正的威脅不在于機械故障或者對于反人類道德的舉動经备,而是在于它們智力強大,卻對人類漠不關(guān)心部默。如果我們像以前那樣侵蒙,依據(jù)它們與人類的相似性來定義人工智能,并假定它們?nèi)膶W⒂谌祟愂聞?wù)傅蹂,我們就更加面臨著這方面的風(fēng)險纷闺。
不管想象中的“強人工智能”是否真正會出現(xiàn),如果我們總是堅持一種我們已經(jīng)知道其錯誤的信念份蝴,我們將會錯失發(fā)現(xiàn)和理解人工智能的良機犁功。在1950年的那篇文章中,圖靈提到了對他設(shè)想的人工智能的很多反駁意見婚夫,令人印象深刻的是浸卦,他把對人工智能的反對與當(dāng)年天主教會反對哥白尼天文學(xué)相類比。哥白尼的發(fā)現(xiàn)使人們放棄了自己處于宇宙中心案糙,具有絕對優(yōu)越性的錯誤觀點限嫌,這種發(fā)現(xiàn)是不可估量的巨大成就。這使得人類更清醒地認(rèn)識世界时捌,把世界實際的狀態(tài)怒医,而不是從我們這個角度能夠觀察到的狀態(tài),作為思想的基礎(chǔ)奢讨。圖靈把這些反駁意見作為“神學(xué)的反對意見”稚叹。另一方面,也會有人說禽笑,不管圖靈測試有多么悠久入录,把類人智能作為人工智能的先決條件,也同樣與“前哥白尼時代”的人類中心主義無異佳镜。先進的僚稿、不像人類的人工智能的到來,可能會帶來一場新的覺醒蟀伸,使我們對于我們自身蚀同、我們所處的環(huán)境、以及什么是真正的“智能”有更為清醒的認(rèn)識啊掏。這樣我們建立的世界模型就更加接近世界真實的樣子蠢络,我們對于未來也會更有信心,這總是一件好的事情迟蜜。
最后刹孔,這種想法延續(xù)了過去人類與技術(shù)的關(guān)系,這種關(guān)系已經(jīng)把我們帶到了“第六次物種大滅絕”的邊緣娜睛。按理說髓霞,人類中心主義本身并不是來自走向瘋狂的技術(shù)卦睹,而更多地是由于人文主義的遺產(chǎn),使得我們總是幻想世界是按我們?nèi)祟惖脑O(shè)想方库,依人類的需要而建立的结序。這些幻想常常能從現(xiàn)代的意見領(lǐng)袖口中聽到,他們向大家布道纵潦,勾勒了一個美好的世界徐鹤,在那里機器是為人的需要和愿望而服務(wù)的。如果你真的這樣認(rèn)為邀层,就上網(wǎng)查一下“殺豬機器人”(不要真的這樣做)返敬,然后我們再來談?wù)勔粋€機器完全服從于人的需要的世界是什么樣的。
有人或許在想寥院,我們?nèi)祟惿鐣步?jīng)歷了從奴隸制度救赐、神權(quán)制度到法制社會,所以即便到了2015 年只磷,對機器來說又何嘗不可?這種情緒(更精確地說泌绣,是這種技術(shù)哲學(xué))本質(zhì)上就是帶來人類中心主義困境的原因钮追,如果繼續(xù)堅持這種觀點,我們也很難順利走向人工智能阿迈。人類如果繼續(xù)堅持這種妄自尊大的習(xí)俗元媚,未來將會付出過于高昂的代價。現(xiàn)在苗沧,到了我們改變的時候了刊棕。