劉璐
學號19021110354T
轉載自https://www.guokr.com/article/443108/
【嵌牛導讀】人工智能可以處理并探測到你語言和行為當中有問題的部分宏邮,并通過互動來幫助人們紓解情緒中的問題,就像心理咨詢師一樣伏恐。我們平日里所表達出來的東西米苹,變成了訓練機器的語料饲宛。所以,不管是谷歌助手,還是Alisa薄湿,反映的都是我們平日交流里的一些情感模(emotional regime)。我們對于自己情緒的感受和理解偷卧,是否也逐漸變得跟機器一般豺瘤?甚至走得更遠一些,當我們的一舉一動都納入機器的計算听诸,讓人工智能來為我們“糾偏”坐求,我們還有所謂的情緒和情感嗎?
【嵌牛鼻子】AI情感模蛇更、語料庫
【嵌牛提問】 究竟誰開發(fā)出來的人工智能瞻赶,能夠真實地反映我們交往中的情感,以及那些不可言說的微妙之處派任?要用哪些語料砸逊、什么樣的文化模式去訓練AI?
【嵌牛正文】
安排行程掌逛、外賣點餐或者搜索师逸,現(xiàn)在我們大概已經(jīng)可以信任Siri或者Alexa這樣的智能語音助手,幫我們處理一些生活中的小事豆混。有的時候篓像,我們甚至會產(chǎn)生“它(她)們是真正存在的智能”的感覺——隨著技術的發(fā)展动知,它們仿佛已經(jīng)能夠理解對話中的微妙之處,并且擁有一些小情緒员辩。
比如盒粮,2012年Siri剛誕生不久的時候,你跟Siri說奠滑,“我受傷了丹皱,叫救護車”(I’m hurt, call me an ambulance),Siri會說“好的宋税,從現(xiàn)在開始摊崭,我就叫你‘救護車’吧〗苋”(OK, now I’ll call you “An Ambulance”)呢簸。然而,最近的新聞里卻說乏屯,一位住在澳大利亞的母親早起看到女兒忽然窒息根时,情急之下她對著Siri大喊叫救護車,Siri果然幫她撥通了急救熱線辰晕,救了她女兒一命啸箫。
是Siri理解人類對話的能力增強了么?并不是伞芹。是程序員看到了社會上的爭議忘苛,把“叫救護車”這個特例寫進了更新。機器所表露出來的所謂“情感”也是這樣的道理——比如唱较,程序員把各種各樣的答案寫在了“我愛你”的預設答案中扎唾,以回應世界各地的人對于Siri的“調戲”。
2017年9月的一件小事南缓,或許更能體現(xiàn)人工智能情感的微妙之處:來自美國的谷歌智能助手胸遇,以及來自俄羅斯社交網(wǎng)絡巨頭Yandex開發(fā)的Alis,對一句同樣的話表達出的不同情緒反應汉形,在網(wǎng)上激起了不少討論纸镊。你如果對谷歌智能助手說一句,“我好傷心”(I’m
Sad)概疆,助手會回答說:“我希望我有手臂逗威,這樣就可以抱抱你了”,標準的暖心安慰岔冀;而俄羅斯的Alisa則會說凯旭,“沒人說過人生會一帆風順”,仿佛一盆傲嬌的冷水,又感覺在默默地鼓勵罐呼。
我們向智能助手傾訴鞠柄,向它表白,和它閑聊嫉柴,一定有我們自己對回應的期望厌杜。而AI的“理解力”,與我們的文化模式计螺、對情緒的解構期奔,乃至感情的數(shù)據(jù)化、標準化表達息息相關危尿,也是由制造AI的人所決定的。
現(xiàn)在機器學習的基本原理馁痴,就是從大量的數(shù)據(jù)里提取各種各樣的模式谊娇,用算法模型訓練它給出預測,并不斷提高精準度÷拊危現(xiàn)在的深度神經(jīng)網(wǎng)絡已經(jīng)可以做到“無監(jiān)督的學習”济欢,自行調試數(shù)據(jù)權重,來更好地擬合實際的數(shù)據(jù)模式小渊。它拾取的是數(shù)據(jù)中的“相關性”法褥,所以給出的結果,也是“從數(shù)據(jù)上最可能的”結果酬屉,而不是“應該的”結果半等。
同樣的,對于機器情感的訓練呐萨,也是基于大量數(shù)據(jù)的輸入來實現(xiàn)的杀饵,我們平日里所表達出來的東西,變成了訓練機器的語料谬擦。所以切距,不管是谷歌助手,還是Alisa惨远,反映的都是我們平日交流里的一些情感模式(emotional regime)谜悟,不同的人群有著不同的交流模式,這些模式是能夠被機器識別的北秽。
誕生于硅谷的谷歌助手,言談中就像是一個加州褲衩小伙或者涼拖姑娘贺氓,掛著美國人特有的那種預設笑容礼患,一旦遇到別人心情低落就趕緊去勸別人開心一點兒。用社會學家伊娃·伊洛茲(Eva Illouz)的話來說,這種無時無刻不用積極的情緒要求自己的情感模式缅叠,叫“情感資本主義”悄泥。這種模式認為,情感是可以自己控制的肤粱,保持積極的心態(tài)是符合自我利益的弹囚;而人與人之間的關系是一種利益上的投資-回報,是對情感方面“需求”的回應领曼;這個利益鸥鹉,就是個人的“快樂”和“幸福”庶骄。所以毁渗,谷歌助手想要抱抱你,是對負面情感的一種積極回應单刁;創(chuàng)造它的人也相信灸异,這種對話模式符合對情感交往的期待。
至于Alisa羔飞,則是被俄語語料訓練出來的智能肺樟。它(她?)展現(xiàn)了一個合格的俄國女性所需要的素質:能捆住狂奔的野馬逻淌,能沖入燃燒的房子么伯,也能理解世界的無情。社會學家茱莉亞·萊納爾(Julia Lerner)把它描述為“情感社會主義”(這里的社會主義的應該理解為帶有蘇聯(lián)色彩的)——承認悲劇無法避免卡儒,與其給予擁抱田柔,不如獻上鐵拳。在俄羅斯的文學和社會傳統(tǒng)里骨望,快樂并不是那么緊要的事情凯楔,人在逆境下生存的能力是最重要的。
Alisa的開發(fā)者對此是有認識的锦募“谕停“Alisa不能太甜太軟,我們生活的社會糠亩,人們的思維模式跟西方不一樣虐骑,”Yandex負責Alisa的產(chǎn)品經(jīng)理說∈晗撸“人們欣賞有點諷刺廷没、有點黑色幽默,不太有攻擊性但也別太軟的性格垂寥〉呃瑁”
問題也就在這里:究竟誰開發(fā)出來的人工智能,能夠真實地反映我們交往中的情感狭归,以及那些不可言說的微妙之處夭坪?要用哪些語料、什么樣的文化模式去訓練AI过椎?但現(xiàn)實是室梅,大部分的人工智能都誕生于美國灣區(qū)、白人男性之手疚宇。
而我們話語中的偏見亡鼠、陰暗之處,是否也會造成不可預測的后果呢敷待?Alisa的開發(fā)團隊做了很多工作间涵,保證Alisa不會說出太過分的話。這非常困難——政治不太正確的俄國人提供的大量的語料中榜揖,存在一些他們也無法堵上的漏洞勾哩。比如,有人曾經(jīng)問Alisa根盒,“丈夫可以打妻子嗎?”Alisa回答說“當然可以”物蝙。此事在網(wǎng)上鬧得沸沸揚揚炎滞,Alisa的團隊不得不承諾,將對她的語言進行更進一步的優(yōu)化诬乞。
更重要的是册赛,機器與人類的情感交流,會不會固化現(xiàn)有的情感模式——不管是“情感資本主義”震嫉,還是“情感社會主義”森瘪,這些真的能夠切實地增進每個人的福利嗎?
機器對于情感理解的需求票堵,正在與日俱增扼睬,越來越多的人向電子世界尋求情感上的幫助。根據(jù)亞馬遜的統(tǒng)計悴势,和智能助理Alexa的談話中窗宇,有大概一半的人不是要Alexa具體做個什么,而是各式各樣的閑聊——今天干了啥特纤,冷笑話军俊,或者人生意義。蘋果公司在2017年也宣稱將加強Siri對于“情感”的支持捧存,“幫助人們過一個更加健康的生活”粪躬。有研究表明担败,人們更愿意與一個聊天機器人吐露心聲,人們面對機器表露出更加強烈的悲傷镰官,以及更不在意訴說秘密提前。
而現(xiàn)在,協(xié)助“情緒管理”的一些智能應用朋魔,已經(jīng)開始投入商業(yè)使用了岖研,比如一個叫Woebot的服務,宣稱能夠監(jiān)測你的情緒波動警检,并且用各種交互手段“讓你感覺更好”孙援;還有一個叫做Mend的軟件,用交談來幫助失戀的人更快地恢復正常扇雕。這些從某種意義上都是有用的——人工智能可以處理并探測到你語言和行為當中有問題的部分拓售,并通過互動來幫助人們紓解情緒中的問題,就像心理咨詢師一樣镶奉。
然而,這些情緒管理哨苛,卻是所謂“情感資本主義”的體現(xiàn)——開心和快樂是人們想要追求的利益鸽凶,需要用一些行動去換取建峭;而且玻侥,開心和悲傷的程度可以被衡量,努力的過程也可以被“管理”起來亿蒸,所有的一切都在幫助自己變得更積極凑兰、更向上。我們對于自己情緒的感受和理解边锁,是否也逐漸變得跟機器一般姑食?甚至走得更遠一些,當我們的一舉一動都納入機器的計算茅坛,讓人工智能來為我們“糾偏”音半,我們還有所謂的情緒和情感嗎?
“跟Alisa聊天就像跟出租司機搭話一樣贡蓖∷钐蓿”一個俄羅斯的用戶這樣描述∧ξ啵或許出租司機知道能用條件反射般的只言片語填充車里的尷尬空氣物延,這樣的交談能讓加班到凌晨的你感覺好一些。但那是我們想要的情感嗎仅父?(編輯:Ent叛薯,EON)
參考文獻:
Aeon,The quantified heart