姓名:白京? ? ? ? 學(xué)號(hào)17011210528
轉(zhuǎn)載自騰訊科技
【嵌牛導(dǎo)讀】面部識(shí)別技術(shù)的發(fā)展使得計(jì)算機(jī)越來越能夠準(zhǔn)確把握人的面部表情變化杯活,從而為用戶提供更開心的服務(wù)匆帚,但也有人開始擔(dān)心我們的情緒被AI技術(shù)綁架,真的會(huì)這樣么旁钧?【嵌牛提問】AI技術(shù)是否真的能夠模擬人的情感吸重,我們應(yīng)該怎樣看待技術(shù)的發(fā)展問題?
【嵌牛鼻子】人工智能
【嵌牛正文】據(jù)外媒報(bào)道歪今,長(zhǎng)期以來嚎幸,致力于開發(fā)情商(Emotional Intelligence)算法的初創(chuàng)企業(yè)Inbot創(chuàng)始人邁克·阿拉薩雷拉(Mikko Alasaarela)始終將研究情商作為一種愛好。直到最近寄猩,他依然堅(jiān)信嫉晶,即使人工智能(AI)接管所有需要記憶和邏輯推理能力的任務(wù)之后,情商仍然是人類的核心優(yōu)勢(shì)之一田篇。 然而在過去幾年里替废,阿拉薩雷拉的注意力始終集中在情商算法上,因?yàn)檫@是其初創(chuàng)公司Inbot的主要業(yè)務(wù)泊柬。隨著對(duì)這些算法的研究越多椎镣,他就越確信這樣一個(gè)事實(shí),在情商方面兽赁,人們不再優(yōu)于AI状答。耶路撒冷希伯來大學(xué)歷史教授尤瓦爾·赫拉利(Yuval Noah Harari)在他的暢銷書《Homo Deus》中寫道,人類本質(zhì)上是由數(shù)百萬年進(jìn)化而成的生物算法的集合體刀崖。他還聲稱惊科,沒有理由認(rèn)為非有機(jī)算法無法復(fù)制并超越有機(jī)算法所能做到的一切。 麻省理工學(xué)院物理學(xué)教授馬克斯·泰格馬克 (Max Tegmark)在其書中《人生3.0:生活在AI時(shí)代的我們》(Life 3.0: Being Human in the Age of Artificial Intelligence)也表達(dá)了同樣的意思亮钦。他給出了一個(gè)令人信服的理由馆截,即幾乎所有的智力都是獨(dú)立的。 人類的情緒和感覺是對(duì)環(huán)境作出反應(yīng)的有機(jī)算法蜂莉。算法是由我們的文化歷史孙咪、成長(zhǎng)經(jīng)歷以及生活經(jīng)歷所塑造的巡语,它們可以被逆向推導(dǎo)。如果我們同意赫拉利與泰格馬克的觀點(diǎn)淮菠,就要相信計(jì)算機(jī)最終將會(huì)比人類更擅長(zhǎng)操縱人類情感男公。 人類情商普遍不高 在現(xiàn)實(shí)生活中,我們實(shí)際上在情商方面的表現(xiàn)很差。大多數(shù)人都對(duì)自己在別人身上觸發(fā)的最基本情感因素一無所知枢赔。我們最終會(huì)陷入毫無意義的爭(zhēng)吵澄阳,摒棄良好的論點(diǎn),因?yàn)樗鼈兣c我們的偏見不符踏拜,更多基于成見來評(píng)判別人碎赢。我們不理解文化背景、家庭教育或當(dāng)前伴侶個(gè)人生活狀況的影響速梗。從總體上說肮塞,我們很少站在別人的立場(chǎng)上考慮問題。如果違背了我們的世界觀姻锁,我們就不會(huì)去理解他們的推理枕赵。我們不想挑戰(zhàn)自己的偏見或成見。 在網(wǎng)絡(luò)上位隶,情況要糟糕得多拷窜。如果我們認(rèn)為其他人的觀點(diǎn)違背了我們的偏見,那么我們就會(huì)從那些我們根本不認(rèn)識(shí)的人的評(píng)論中得出草率的涧黄、往往錯(cuò)誤的結(jié)論篮昧。最后,我們有一種進(jìn)化特征笋妥,即把生命看作“最適者才能生存”懊昨。這讓我們無法利用他人的優(yōu)勢(shì),專注于提升自我挽鞠。最成功的人往往通過撒謊以獲得優(yōu)勢(shì)疚颊,通過操縱取得成功,通過欺騙掩飾自己的錯(cuò)誤行為等信认。這是一種不惜一切代價(jià)贏得勝利的方式材义,在這種情況下,也會(huì)造成很多情感上的傷害嫁赏。 AI的情商突飛猛進(jìn) 當(dāng)人類繼續(xù)努力相互理解時(shí)其掂,AI的情商正突飛猛進(jìn)。手機(jī)上的攝像頭無處不在潦蝇,面部追蹤軟件已經(jīng)足夠先進(jìn)款熬,可以分析我們面部表情的最小細(xì)節(jié),最先進(jìn)的面部識(shí)別技術(shù)甚至能分辨出虛假情緒攘乒。語音識(shí)別和自然語言處理算法也越來越善于從音頻中找出我們的情緒狀態(tài)贤牛。從面部和語音中分析情感反應(yīng)的技術(shù)已經(jīng)超越了普通人的能力水平,在許多領(lǐng)域甚至超過了最有能力的人類则酝。 AI可以看著我們的臉殉簸,識(shí)別出你的性取向、政治傾向或智商等私人品質(zhì)。雖然AI可以從你的面部或語言中解讀出幾乎所有的情感般卑,但我們還沒有投入大量精力來對(duì)AI的情商進(jìn)行研究武鲁。目前,這一領(lǐng)域的進(jìn)步幾乎完全是由商業(yè)利益和人類貪婪所驅(qū)動(dòng)的蝠检。媒體和娛樂公司需要我們的關(guān)注和參與來賺錢沐鼠。像Facebook和YouTube這樣的公司,都有大量的工程師致力于研發(fā)讓我們沉迷于其內(nèi)容的更好方式叹谁。 這些算法的設(shè)計(jì)目的是為了觸發(fā)我們的情緒饲梭,讓我們保持開心,它們已經(jīng)非常非常擅長(zhǎng)執(zhí)行這樣的任務(wù)本慕。然而排拷,這些算法的核心開發(fā)人員已經(jīng)開始害怕這種技術(shù)擺脫控制,警告我們大腦可能會(huì)被劫持锅尘。 大數(shù)據(jù)為AI情商提供優(yōu)勢(shì) 與人類不同监氢,AI可以利用你的整個(gè)網(wǎng)絡(luò)瀏覽歷史。在大多數(shù)情況下藤违,它比任何人都能記住更多的信息浪腐。Facebook和谷歌(微博)開發(fā)的一些最先進(jìn)機(jī)器學(xué)習(xí)算法,已經(jīng)被應(yīng)用于數(shù)十億人產(chǎn)生的海量數(shù)據(jù)中顿乒。 基于你的通訊议街、朋友以及文化背景,這些算法已經(jīng)了解你的欲望璧榄、偏見和情感觸發(fā)因素特漩。在許多領(lǐng)域,他們比你更了解自己骨杂。迄今為止涂身,算法的進(jìn)步已經(jīng)讓Facebook和谷歌被指責(zé)開發(fā)出可以影響公眾輿論、迅速改變政治格局搓蚪、影響選舉的過濾泡沫蛤售。這些算法變得如此復(fù)雜,以至于越來越無法完全由人類控制妒潭。 Facebook的安全主管亞歷克斯·斯塔莫(Alex Stamos)最近在推特上表示悴能,記者們指責(zé)他們的操作行為不公平,事實(shí)上雳灾,目前沒有任何解決辦法可以讓人不指責(zé)他們存在偏見漠酿。 AI情商的未來 人們有很多偏見,并在影響著我們的判斷谎亩。我們看到的世界是我們希望看到的记靡,而不是真實(shí)的世界谈竿。今天的算法是由人類開發(fā)的,本身就包含了許多有關(guān)人類偏見的暗示摸吠。但如果我們想要消除這種偏見,那就相對(duì)容易了嚎花。 隨著AI操控我們的能力越來越強(qiáng)寸痢,我看到了這樣的未來,即人們樂于將自己的生活交給算法管理紊选。我們已經(jīng)可以在實(shí)踐中看到這種趨勢(shì)啼止。只要在公共場(chǎng)合環(huán)顧四周,幾乎每個(gè)人都在擺弄他們的智能手機(jī)兵罢。人們每天接觸手機(jī)的次數(shù)平均為2617次献烦,這預(yù)示著未來將被科技控制的前景越來越近。我們可能很快就會(huì)看到卖词,人類與AI的角色發(fā)生轉(zhuǎn)換巩那,AI可能將人類作為有機(jī)機(jī)器人來幫助其實(shí)現(xiàn)目標(biāo)。