作者:Filip Piekniewski??編輯:界面新聞
1.我們掉入了圖靈關于智能的定義的陷阱。在著名的圖靈公式中,他把智能限定為一場對手為人類的語言游戲帅霜。這就把智能設定為(1)一個游戲的解決方案(2)將人類擺在裁判的位置上。這個定義極有欺騙性,因而不是特別適合這個領域静稻。狗、猴子匈辱、大象甚至嚙齒動物都非常智能振湾,但卻不會說話,因此在圖靈測試里它們是過不了關的亡脸。
2.AI的核心問題是莫拉維克悖論(Moravec's Paradox)(注:莫拉維克說押搪,“要讓電腦如成人般地下棋是相對容易的佛南,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的∏堆裕”)。這個悖論是1998年首次闡述的及穗,30年過去了摧茴,我們在這方面的進展如此之少,真是令人尷尬埂陆。這個悖論的主題是苛白,最簡單的現(xiàn)實顯然要比最復雜的游戲還要復雜得多。我們癡迷于博弈(以及其他限制嚴格且定義明確的話語范圍焚虱,如數(shù)據(jù)集)中的超人表現(xiàn)购裙,以此作為智能的標志。我們完全忽視了一個事實——是現(xiàn)實本身鹃栽,而不是人類的某個委員會躏率,才能某個參與者的智能做出終極評判。
3.我們的模型或許有效民鼓,但其原因往往是錯誤的薇芝。深度學習就是一個明顯的例子。表面上我們解決了對象識別丰嘉,但無數(shù)研究表明夯到,深度網(wǎng)絡能夠識別對象的原因,跟人類能發(fā)覺對象的原因有著巨大差異饮亏。有些人出于圖靈測試理念只想著怎么愚弄人耍贾,對他們來說,這個問題也許并不重要路幸。而對那些關心如何讓人工代理能夠處理意外(域外)現(xiàn)實的人來說荐开,這個問題就至關重要了。
4.現(xiàn)實不是游戲劝赔。如果說兩者有相似性誓焦,那就是,現(xiàn)實是規(guī)則不斷變化的游戲的無限集合着帽。只要出現(xiàn)重大進展杂伟,游戲規(guī)則都要重寫,所有玩家都得跟著調(diào)整仍翰,否則就會死掉赫粥。智能,就是一種會進化從而讓主體解決這一問題的機制予借。我們可以造出機器越平,在規(guī)則固定的游戲中超出我們自己的能力频蛔,但這并不能告訴我們?nèi)绾卧斐鰴C器去玩“規(guī)則不斷變化的游戲”。
5.物理現(xiàn)實中有某些規(guī)則是不變的——比如物理定律秦叛。人類已經(jīng)把這些定律表述出來晦溪,并借此做出預測,文明因而建立挣跋。但是三圆,這個星球上的每一種生物,為了能在地球上生存避咆,也都以非語言的方式掌握了這些規(guī)律舟肉。小孩子不需要學習牛頓定律,就知道蘋果會從樹上掉下來查库。
6.我們的視覺數(shù)據(jù)模型其實是非常不完善的路媚,因為它們僅僅依賴事物在時間顯現(xiàn)中的停留,以及人類打的抽象標簽樊销。深度網(wǎng)絡就算看了幾百萬張樹上蘋果的照片整慎,也永遠無法發(fā)現(xiàn)重力(以及其他許多顯而易見的事情)。
7.關于常識围苫,最大的困難在于院领,它對我們顯而易見,但卻幾乎無法用語言表達够吩,進而在數(shù)據(jù)中打上標簽比然。對于一切“明顯”事物,我們都有著巨大的盲點周循。因此强法,我們無法教會計算機常識,這不僅因為可能不切實際湾笛,而且更根本原因在于饮怯,我們恐怕都無法意識到常識是什么。只有當機器人做了某件極其愚蠢的事情之后嚎研,我們才意識到蓖墅,“哦,原來機器人不理解這個??”
8.如果我們希望解決莫拉維克悖論(在我看來临扮,這應該成為今天任何嚴肅的AI努力的焦點)论矾,那么,我們怎么也得模仿一下生物體杆勇,即純粹通過觀察世界來學習贪壳,而不需要標簽的輔助。一個比較有希望的想法是蚜退,開發(fā)一個對未來事件作出臨時預測的系統(tǒng)闰靴,然后通過將其預測與實際情況進行對比來學習彪笼。無數(shù)實驗表明,這的確是生物體大腦中發(fā)生的事情蚂且,而且從各種角度來說配猫,這樣做非常有意義,因為這些系統(tǒng)杏死,除了其他方面之外還必須學習物理定律(所謂的樸素物理學)章姓。預測性視覺模型,是朝著這個方向邁出的一步识埋,但肯定不是最后一步。
9.我們特別需要在圖靈的定義之外框定“智能”的質(zhì)量零渐。從非平衡態(tài)熱力學窒舟,我們應該能發(fā)現(xiàn)一些好點子,這與預測性假設也是一致的诵盼。為什么呢惠豺?因為我們需要開發(fā)出注定無法通過圖靈測試的智能代理(因為它們不會展現(xiàn)出語言智能),但依然需要一個衡量開發(fā)進展的框架风宁。
10.我們今天所做的一切以及被稱為AI的東西洁墙,都是能夠語言化的、某種形式的自動化戒财。在很多領域热监,這些能發(fā)揮作用,但是饮寞,這和用Excel代替紙張表格來幫助會計并沒有太大不同孝扛。最大的問題(且一直)是自主。自主不是自動化幽崩。自主比自動化的意味多多了苦始,如果自主意味著比人類更安全,比如自動駕駛汽車慌申,那么自主的含義比自動化要多太多了陌选。自主應該等同于寬泛定義的智能,因為它意味著處理意外的蹄溉、未經(jīng)訓練的咨油、未知的未知的能力。
在博客后的留言中柒爵,Piekniewski還提出他關于AI如何沖擊就業(yè)的分析臼勉。他把這個問題分為兩部分:
1)我們會繼續(xù)把越來越多的任務自動化嗎?很有可能餐弱。這會導致人們失業(yè)嗎宴霸?大概是的囱晴。但是自從工業(yè)革命開始,我們已經(jīng)解決了這個問題瓢谢,每當我們消滅一些工作時畸写,其他一些就業(yè)機會就會出現(xiàn)。
2)我們是否會建立一支擁有人類能力的AI奴隸隊伍氓扛,由它們?nèi)ネ瓿扇祟惸壳八龅囊磺锌莘遥祟悇t去度過無盡的假期?我不認為采郎,不會很快發(fā)生千所,甚至在50年內(nèi)都不可能發(fā)生。
總而言之蒜埋,我們目前所做的淫痰,可能會導致許多工作自動化,但令人驚訝的是整份,或許這些工作不是人們都在談論的那些待错。比如卡車司機、出租車司機烈评、警察火俄、保安和任何需要處理“長尾”事件的職業(yè),其實都是安全的讲冠。恕我直言瓜客。但是保險代理人、房地產(chǎn)經(jīng)紀人竿开、各種官僚人士忆家、零售人員、圖書管理員以及其他限定和定義明確的領域德迹,每個人都可能受到威脅芽卿。?
作者不認為汽車駕駛會很快地大規(guī)模自動化「旄悖卡車司機除了駕駛卡車卸例,還要保養(yǎng)卡車,比如加油肌毅、修理等等筷转。即使駕駛可以自動化,我們?nèi)匀恍枰屓烁浳镄苑廊f一呜舒。就算是收銀員,也有很多不可知情況笨奠,比如條碼不可用等等袭蝗。所以唤殴,他們中的一些人會失去工作但不是全部,有些人仍然需要處理那些尾部情況到腥。而且朵逝,在一些嚴重的經(jīng)濟衰退或自然災害的情況下,這些自動化設備也可能一下子變得毫無用處乡范。?
而通用AI配名、可以為我們做任何事的智能奴隸,或者殺人的終結(jié)者物種晋辆,目前并沒有出現(xiàn)在科技的地平線上渠脉。