如果沒有威爾史密斯的《機械公敵》著榴,MIT的這款機器人將是世界上第一個機器人精神病患者博脑。
MIT的科學家憎乙,將Reddit(美國的社交新聞?wù)军c,全球流量第四叉趣,slogan是先于新聞發(fā)生泞边,鼓勵用戶自己生產(chǎn)內(nèi)容和發(fā)表專題,開放投票功能疗杉,票數(shù)高的會排在前列)中的一些暴力和死亡的負面圖像數(shù)據(jù)阵谚,喂給一名人工智能機器人,成功將其變成一位精神病患者,還給他去了一個名字叫Norman梢什。Norman是希區(qū)柯克1960年電影《心理學(Psycho)》中的角色奠蹬。
麻省理工學院的科學家Pinar Yanardag,Manuel Cebrian和Iyad Rahwan專門訓(xùn)練Norman绳矩,給圖像配字幕:抽取圖像敘事信息并以書面形式產(chǎn)生相應(yīng)的描述罩润。所以用羅夏墨跡測試(著名的心理學實驗,用于測試人類潛意識)去建立對照組翼馆,檢查機器人的圖像解讀模型是否完善割以,是最好不過了。但結(jié)果是讓人不寒而栗的应媚。在看到某個墨跡區(qū)域之后严沥,Norman產(chǎn)生了電擊和撞車的詭異解釋,而對照組里的標準人工智能只會看到雨傘和婚禮蛋糕中姜。
因此消玄,世界上第一個精神病患者AI。Norman誕生于這樣一個事實丢胚,即用于訓(xùn)練機器學習算法的數(shù)據(jù)可以顯著影響其行為翩瓜。因此,當人們談?wù)撊斯ぶ悄芩惴ù嬖谄姾筒还綍r携龟,罪魁禍首往往不是算法本身兔跌,而是提供給它的偏見數(shù)據(jù)。相同的方法可以在圖像中看到非常不同的東西峡蟋,算法是一種決策坟桅,如果訓(xùn)練錯誤的(或正確的!)數(shù)據(jù)集蕊蝗,依然會產(chǎn)生內(nèi)容偏差仅乓。雖然一個案例,但然我們看到了數(shù)據(jù)偏差產(chǎn)生的巨大影響蓬戚。
他們的研究證明了夸楣,改變算法的輸入內(nèi)容可以極大地影響其后來的行為÷蹈科學家們認為裕偿,很多互聯(lián)網(wǎng)公司提供的內(nèi)容被指責為偏見或不公平,例如Facebook前員工爆出的網(wǎng)站專門壓制保守派新聞痛单,“罪魁禍首往往不是算法本身嘿棘,而是偏見的數(shù)據(jù)⌒袢蓿”
類似的鸟妙,各種種族主義的偏見都有被誤解為算法的案例焦人,那么,現(xiàn)在可以考慮翻案了重父。MIT數(shù)字經(jīng)濟倡議聯(lián)合委員會主任表示花椭,只要“輸入數(shù)據(jù)準確無誤”,人工智能就可以保持有效和無偏見房午。
這個研究幫助人類更好的理解了AI矿辽,正視了各種互聯(lián)網(wǎng)內(nèi)容的質(zhì)量問題。但是很多人已經(jīng)對AI的技術(shù)發(fā)展和應(yīng)用感到擔憂郭厌。
只是暴露在負面形象和壓抑思維中袋倔,AI的移情邏輯就無法打開。新南威爾士大學臨床神經(jīng)心理學教授斯凱麥克唐納說折柠,Aldebaran Robotics的“Pepper”機器人可能是訓(xùn)練人類同理心的最接近的實驗之一宾娜,機器人專家希望有一天人工智能能夠通過觀察一個人的面部表情來理解人類的情感。然而扇售,如果數(shù)據(jù)偏差就會導(dǎo)致如此大的逆轉(zhuǎn)的話前塔,麥克唐納認為,技術(shù)“距離完全理解人類同理心如何運作的復(fù)雜性還有很長的路要走承冰』”
理解機器智能,引接人機協(xié)同時代困乒,期待您的關(guān)注该抒。歡迎在評論區(qū)留下您的寶貴意見。:)