姓名:李佳明 學號:16020199014? 轉(zhuǎn)載自:http://www.gdu-tech.com
【嵌牛導讀】:AI何去何從栽燕?
【嵌牛鼻子】:AI、人性
【嵌牛提問】:AI發(fā)展的未來展望
【嵌牛正文】:
“9·11 是猶太人干的台盯,把他們都送進毒氣室!種族戰(zhàn)爭現(xiàn)在開始畏线!”
2016年3月23日静盅,一個人設(shè)為19歲女性,昵稱為 Tay 的聊天機器人在推特上線寝殴。這個微軟開發(fā)的人工智能采用了自然語言學習技術(shù)蒿叠,能夠通過抓取和用戶互動的數(shù)據(jù),處理并模仿人類的對話蚣常,像人一樣用笑話市咽、段子和表情包聊天。但是上線不到一天抵蚊,Tay 就被“調(diào)教”成了一個滿口叫囂著種族清洗施绎、粗野不堪的極端分子溯革,微軟只好以“系統(tǒng)升級”為由將其下架。
微軟聊天機器人的極端言論谷醉。圖片來源:推特
這樣的口號并不是聊天機器人的發(fā)明致稀,而在社交網(wǎng)絡(luò)上大量存在著。美國大選期間俱尼,一些所謂的“政治新媒體”賬號發(fā)出的摻雜陰謀論抖单、種族主義的內(nèi)容,配上病毒式的meme遇八,在 Facebook 上獲取了相當大的傳播量臭猜。這有賴于人工智能協(xié)助下的“精準鉚定”。誰最容易相信陰謀論押蚤?誰對現(xiàn)實最不滿?相應的政治廣告和假新聞能精準地投放到這群人中羹应,讓這些機器判定為“類似”的人在極端言論的包圍中漸漸被潛移默化揽碘。
因為設(shè)計缺陷而 “暴走”的聊天機器人,和精心策劃的線上政治行為园匹,看起來仿佛是兩回事雳刺。但這種我們似乎從未見過的景象,卻指向了同一個“兇器”——大數(shù)據(jù)驅(qū)動下的人工智能裸违。
是智能在 “作惡”嗎掖桦?
人工智能會“作惡”嗎?面對智能的崛起供汛,許多人抱有憂慮和不安:擁有感情和偏見的人會作惡枪汪,而僅憑理性計算進行判定的計算機似乎也會“作惡”,且作起來易如反掌怔昨。這讓許多人(特別是非技術(shù)領(lǐng)域的人)對人工智能的發(fā)展持悲觀態(tài)度雀久。
這種憂慮并不是最近才有的。人工智能這個詞誕生于上世紀50年代趁舀,指可體現(xiàn)出思維行動的計算機硬件或者軟件赖捌,而對機器“擁有思維”之后的倫理探討,早至阿西莫夫開始就在科幻作品里出現(xiàn)矮烹。14 年前越庇,威爾·史密斯主演的電影《機械公敵》(I, Robot)里就有這樣一個場景:2035 年的人類社會,超高級的人工智能承擔大量工作奉狈,并與人類和諧相處卤唉。這些原本完全符合阿西莫夫“三定律”的人工智能,在一次關(guān)鍵升級之后對人類發(fā)起了進攻仁期。這些機器人擁有了思維進化的能力搬味,在它們的推算下境氢,要達到“不傷害人類”的目的,就必須先消滅“彼此傷害”的人類碰纬。
看起來萍聊,人工智能并不像人類一樣擁有所謂“人性”,并不與我們共享一個道德倫理體系悦析。然而將智能的“作惡”簡單理解為“人性缺乏”寿桨,未免把這個問題看得太過簡單。
南京大學計算機科學與技術(shù)系副教授强戴、人工智能專家俞揚認為亭螟,“人性”對于人工智能來說是一個非常“高層次”的東西骑歹≡だ樱“描述一張圖片上,有草原道媚,有獅子扁掸,機器可以做到,”俞揚舉了個例子最域,“而要歸納它是‘非洲’谴分,就要更高級一些,對機器來說更困難镀脂∥悖”他說,判斷一件事情在道德上好不好薄翅,意義上怎么樣沙兰,目前來講并不是機器的能力范圍。
而正視人工智能的“惡”翘魄,或許應該首先找出作惡之源——為什么人工智能忽然變得可怕起來僧凰?
近 10 年,人工智能領(lǐng)域迎來了爆發(fā)熟丸,這要得益于 “機器學習”的發(fā)展:擁有強大運算能力的計算機程序能夠?qū)Υ罅繑?shù)據(jù)進行自動挖掘和分析训措,并學習各種行為模式。輸入和輸出不再是人工賦予的幾個變量掌控光羞,而是讓機器在大量數(shù)據(jù)中自己分析特征绩鸣,決定變量權(quán)重。
而最新趨勢下進行“深度學習”的人工智能纱兑,則可以通過模擬多層級的神經(jīng)網(wǎng)絡(luò)呀闻,擁有感知、交流潜慎、決策和預測等能力捡多。擊敗人類的圍棋“Alpha Go”便是一例蓖康。當下最熱門的自動駕駛,也堪稱人工智能以獨立姿態(tài)走入人類社會的“先驅(qū)”垒手。更基本的是蒜焊,人類生活的大規(guī)模網(wǎng)絡(luò)化、數(shù)字化科贬,為機器的“學習”提供了足夠多的數(shù)據(jù)“食糧”泳梆。
今天的人工智能與其說是擁有“思維”,不如說是對于人類世界中現(xiàn)存數(shù)據(jù)的反映和理解榜掌。與其說“沒有人性”优妙,會不會是“太有人性”?機器是否也繼承了我們既有的偏見憎账、無常和貪婪套硼??
人工智能的“偏見”:過往數(shù)據(jù)的問題
人工智能在判斷上失誤的一個指責,是它經(jīng)常會 “歧視”胞皱。使用最先進圖像識別技術(shù)的谷歌曾經(jīng)陷入“種族歧視”的指責邪意,只因它的搜索引擎會將黑人打上“猩猩”的標簽;而搜索“不職業(yè)的發(fā)型”朴恳,里面絕大多數(shù)是黑人的大辮子。哈佛大學數(shù)據(jù)隱私實驗室教授拉譚雅·斯維尼(Latanya Sweeny)發(fā)現(xiàn)允蚣,在谷歌上搜索有“黑人特征”的名字于颖,很可能彈出與犯罪記錄相關(guān)的廣告——來自谷歌智能廣告工具 Adsense 給出的結(jié)果。
而這種危險并不僅僅是 “另眼相看”本身——畢竟將一張黑人的照片打上“猩猩”的標簽嚷兔,只是有點冒犯罷了森渐。而人工智能的決策正走入更多與個人命運切實相關(guān)的領(lǐng)域,切實影響著就業(yè)冒晰、福利以及個人信用同衣,我們很難對這些領(lǐng)域的“不公平”視而不見。
對每個畢業(yè)季都會收到數(shù)以萬計簡歷的大公司人力部門而言壶运,用機器篩簡歷并不是什么新鮮的事情耐齐,百分之七十以上的簡歷甚至都到不了 HR 的眼皮底下。篩簡歷的 AI(業(yè)界用語“雇傭前評估”)因此而獲得了大約30億美元左右的市場蒋情。有些關(guān)鍵詞埠况,例如性別、地域棵癣,或者出身階層辕翰,至少在明面上,是不宜成為篩選標準的——這個時候狈谊,HR 就會以“并不適合”為由喜命,推掉不喜歡的性別沟沙、籍貫乃至星座。那么壁榕,徹底排除 HR 或者項目經(jīng)理個人偏見的人工智能會解決這個問題嗎矛紫?答案可能會更糟。
最新的人工智能雇傭輔助技術(shù)护桦,并不需要人為設(shè)置關(guān)鍵詞含衔,而全靠“過往的優(yōu)秀員工數(shù)據(jù)”對機器的訓練,決策權(quán)重也并不是加或者減去一個過濾的變量就能解決的二庵,看起來似乎十分公平贪染。然而人工智能的檢視,卻讓少數(shù)族裔催享、女性杭隙、或者有心理疾病史的人更難找到工作。美國 IT 作家因妙、數(shù)學家凱西·奧尼爾(Cathy O’Neil)曾經(jīng)調(diào)查到痰憎,人力資源解決方案公司 Kronos 提供的智能篩選服務(wù)會用“個性測試”把有心理疾病史的申請者擋在門外;而施樂(Xerox)在招聘的時候發(fā)現(xiàn)攀涵,人工智能大量過濾掉了有色人種的申請铣耘,因為這些申請者提供的地址位于市內(nèi)某黑人聚居區(qū)。
金融領(lǐng)域也不例外以故。位于美國洛杉磯的科技金融公司 Zest 開發(fā)了一個人工智能信用評估平臺 ZAML蜗细,使用用戶網(wǎng)絡(luò)行為,而不是實際的信用記錄怒详,來判定用戶的信用值炉媒。百度作為搜索引擎合作商,向他們提供了大量可以用于分析用戶信用傾向的數(shù)據(jù)昆烁,比如搜索歷史吊骤、頁面訪問記錄、訪問習慣等等静尼,用于歸納出用戶可能的財務(wù)狀況白粉。它聲稱有近十萬個數(shù)據(jù)點,沒有所謂“決定因素”鼠渺,因為美國法律禁止金融機構(gòu)以性別蜗元、種族或宗教等決定一個人的信用。然而在現(xiàn)實應用中系冗,對于不同人群的“另眼相看”卻體現(xiàn)得非常明顯——比如奕扣,它會“研讀用戶的申請”,檢查申請中是否有語法和拼寫錯誤等掌敬,來判定一個人“守規(guī)矩”的傾向惯豆;然而這導致并不能熟練使用英語的移民群體在信用問題上被抹黑池磁。
歧視的來源是哪里?是打標簽者的別有用心楷兽,是數(shù)據(jù)擬合的偏差地熄,還是程序設(shè)計哪里出了 bug?機器所計算出的結(jié)果芯杀,能為歧視端考、不公、殘酷提供理由嗎揭厚?這些都是值得商榷的問題却特。
我們訓練機器的“過往數(shù)據(jù)”,實際上是人類自身偏見和行為的產(chǎn)物筛圆×衙鳎《MIT 商業(yè)評論》的分析者認為,類似于 ZAML 的智能采用的“貼標簽”策略太援,很難排除相關(guān)性(而非因果性)帶來的偏見闽晦。少數(shù)族裔常常會因某種特定行為被打上標簽(比如訪問某個網(wǎng)絡(luò)社區(qū)等),即使他/她有良好的信譽和穩(wěn)定的工作提岔,只要出現(xiàn)這樣的行為仙蛉,就可能會被人工智能判定為低信用,需要為他/她的借貸支付更高的利息碱蒙,或者干脆沒有資格荠瘪。
機器能解決處理效率的問題,卻不能避免“過往數(shù)據(jù)”本身造成的缺陷振亮。一個公司過去10年男員工工資比女員工高巧还,有可能源自某個高層的性別歧視鞭莽;智能篩選卻能把對于此群體的偏見刻印在對于個體的判斷上坊秸,這跟人類的刻板印象如出一轍。問題在于澎怒,機器的抉擇往往被包裝上“科學”“客觀”的外衣褒搔,此類解決方案往往能夠因為其科技噱頭而賣出高價,殊不知只是用“科學結(jié)果”對現(xiàn)有的偏見進行的“大數(shù)據(jù)洗白”喷面。
人工智能的“黑箱”:無法理解的智能帶來的危險
放眼望去星瘾,技術(shù)樂觀派對于“機器/深度學習”的熱情十分高漲,亞馬遜就是其中之一:除了能夠跟人“尬聊”的智能助手 Alexa惧辈,機器學習和深度學習的算法也被其用于“提高用戶的購物體驗”(比如最新投入應用的 Amazon Go)琳状。與此同時,當這些人們摸不準的變量能夠輕易決定一個人基礎(chǔ)福利盒齿、工作晉升念逞、人身保險的時候困食,相應的監(jiān)管和約束卻對此毫無辦法——人工智能造成的歧視和不公,很大程度上是對監(jiān)管翎承、異議硕盹、上訴等“免疫”的,因為它非常不透明叨咖。
這是人工智能在現(xiàn)在面臨的重要挑戰(zhàn)之一瘩例。“我們不了解一個人工智能的模型是如何做出決策的甸各,很多時候情況和我們預想的不一樣垛贤。”在談到智能的“不透明”時痴晦,俞揚如是說南吮。
目前最火的領(lǐng)域“深度學習”就是這樣——行業(yè)者有時會將其戲謔地稱為“當代煉金術(shù)”:輸入各類數(shù)據(jù)訓練 AI,“煉”出一堆我們也不知道為啥會成這樣的玩意兒誊酌。處理數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)部凑,通常由數(shù)十個或者上百個(或者更多)神經(jīng)元組成,然后用數(shù)層邏輯結(jié)構(gòu)組織起來碧浊,運算過程及其復雜涂邀。智能程序自己給自己設(shè)定算法和權(quán)重,而最后為什么輸出了某個決策箱锐,人類并不能完全理解比勉。這看起來就仿佛一種本能一樣——蒙特利爾大學的計算機科學家約書亞·本奇奧(Yoshua Bengio)將其稱為“人工直覺”(artificial intuition)。
我們會信任一個我們“無法理解”的決策對象嗎驹止?當它出錯的時候浩聋,我們能夠察覺储矩、能夠糾正嗎合住?
?“我們必須清楚地知道人工智能會做出什么樣的決策学密。對人工智能的應用范圍桶现,以及應用結(jié)果的預期裂允,一定要有約束瞧筛“嵩幔”俞揚認為斟或,“黑箱”的現(xiàn)實應用撤卢,一定要慎之又慎环凿。環(huán)境是否可控,是否經(jīng)過了可理解性的測試放吩,決定了它是否可以用在關(guān)鍵的場所智听,否則就是產(chǎn)品的重大缺陷。
俞揚所在的實驗室做的研究之一,便是把模型放在開放環(huán)境中到推,讓其學會“感知”未知的狀況忽洛,并自動阻止機器做決策』分猓“機器需要給自己‘劃線’欲虚。”俞揚說悔雹。
但在實際操作中复哆,要讓人工智能的制造者給自己的智能“劃線”,則要面臨更重大的問題——資本腌零。
人工智能的“無情”:資本驅(qū)動的信息世界
如同開篇提到的那樣梯找,2016 年美國大選期間,一家叫劍橋分析(Cambridge Analytica)的公司使用人工智能技術(shù)益涧,針對任意一個潛在選民的“心理特征”投放付費政治廣告锈锤;而投什么樣的廣告,取決于一個人的政治傾向闲询、情緒特征久免、以及易受影響的程度。很多虛假的消息在特定人群中能夠迅速傳播扭弧、增加曝光阎姥,并潛移默化地影響人們的價值判斷。技術(shù)主使克里斯托弗·威利(Christopher Wylie)最近向媒體揭發(fā)了這個人工智能技術(shù)的“食糧”來源——以學術(shù)研究為名鸽捻,有意攫取的 5000 多萬用戶數(shù)據(jù)呼巴。
劍橋分析CEO亞歷山大·尼克斯(Alexander Nix)。圖片來源:wikipedia
劍橋分析并不是一個孤例御蒲。澳洲一個 Facebook 的廣告客戶透露衣赶,F(xiàn)acebook 的人工智能會分析其用戶特征和所發(fā)的內(nèi)容,給出諸如“有不安全感的年輕人”“抑郁厚满、壓力大”等標簽府瞄,然后有針對性地投放游戲、癮品和甚至虛假交友網(wǎng)站的廣告痰滋,從中獲取巨大利益摘能。
即使不存在數(shù)據(jù)泄露問題续崖,對用戶數(shù)據(jù)的所謂“智能挖掘”也很容易游走在“合規(guī)”但“有違公平”的邊緣敲街。例如,電商能夠根據(jù)一個人的消費習慣和消費能力的計算严望,對某個人進行針對的多艇、精密的價格歧視。購買同樣的商品像吻,用 iPhone X 手機的用戶很可能會比用安卓“千元機”的用戶付更多的價錢峻黍,因為他們“傾向于對價格不敏感”复隆。而我們所經(jīng)常談?wù)摰摹按髷?shù)據(jù)殺熟”——比如攜程老用戶訂旅館的價格會更高——也建立在用戶行為數(shù)據(jù)的基礎(chǔ)上。
數(shù)據(jù)的收集本身也值得商榷姆涩。前百度人工智能首席科學家吳恩達(Andrew Ng)就曾公開表示挽拂,大公司的產(chǎn)品常常不是為了收入而做,而是為了用戶的數(shù)據(jù)而做骨饿;在某一個產(chǎn)品上收集的數(shù)據(jù)亏栈,會用于在另一個產(chǎn)品上獲利。在智能面前宏赘,沒有所謂的個人隱私和行蹤绒北,也很難確定數(shù)據(jù)收集的邊界在哪里,尤其是個人隱私與公共信息察署、主動提供與被動提供的邊界闷游。
總而言之,在以商業(yè)利益為目標的人工智能眼里贴汪,并沒有“人”或者“用戶”的概念脐往,一切都是可以利用的數(shù)據(jù)。劍橋大學互聯(lián)網(wǎng)與社會研究中心教授朔沙娜·祖博夫(Shoshana Zuboff)將這種人工智能和資本“合體”的現(xiàn)狀扳埂,稱之為“監(jiān)控資本主義”(Surveillance Capitalism)——在大數(shù)據(jù)和人工智能的協(xié)助下钙勃,通過對每個人的監(jiān)控和信息的榨取,實現(xiàn)資本的最大化聂喇。
業(yè)界對此的態(tài)度很曖昧辖源。AI 作為當下最熱門、來錢最快的行當之一希太,這些動輒年薪50萬美元的工程師很少得閑來思考“形而上”的問題克饶。 一位不愿具名的研究人員在與我的微信私聊中表達了他的“個人看法”:“現(xiàn)在的技術(shù)離‘通用人工智能’還很遠,對社會倫理方面的影響沒有那么大誊辉,更多還是從繁瑣的重復勞動中解脫出來矾湃。”
作者試圖找到行業(yè)內(nèi)人士對此評論堕澄,谷歌(中國)和百度自動駕駛部門的人工智能相關(guān)人員均表示邀跃,探討 AI 的社會問題,牽涉到公司利益和形象蛙紫,比較敏感拍屑,不便評論。
“人工智能作為一個工具坑傅,如何使用僵驰,目前來看決定權(quán)依然在人。”俞揚說道 蒜茴,“系統(tǒng)的設(shè)計者和商業(yè)(應用)的提供人員需要對此負責星爪。”
如何負責粉私?這或許需要我們正視人工智能對整個社會關(guān)系的挑戰(zhàn)顽腾。
有解決方案嗎?我們的社會與智能需要新關(guān)系
2018年3月 19 日诺核,一輛自動駕駛的優(yōu)步(Uber)在美國亞利桑那州惹上了麻煩崔泵。面對路中出現(xiàn)的一個推著自行車的女性,這輛車速 38 mph(約61km/h)的沃爾沃在昏暗的光線條件下并沒有減速猪瞬,徑直撞了上去憎瘸,受害者被送往醫(yī)院之后不治身亡。這是自動駕駛第一例行人致死的事故陈瘦。
電視臺對自動駕駛優(yōu)步車禍的報道幌甘。圖片來源:abc電視臺
事故發(fā)生之后,有不少人將矛頭指向了自動駕駛的人工智能是否足夠安全上痊项,或者呼吁優(yōu)步禁止自動駕駛锅风。然而更關(guān)鍵的問題在于,亞利桑那有著全美國幾乎最開放的自動駕駛政策鞍泉,事故發(fā)生地坦佩市(Tempe)是實行自動駕駛最火的“試驗田”之一皱埠;事故所在的街區(qū)早已做過路線測試,并被自動駕駛的智能采納咖驮。但是在事故發(fā)生之后边器,對于責任的認定依然遇到了困難。
因為人的疏忽造成的車禍數(shù)不勝數(shù)托修,人們早已習慣了如何處理忘巧、怎樣追責;然而機器出錯了之后睦刃,人們忽然手足無措砚嘴。人工智能會出錯嗎?當然會涩拙。只是我們在這個問題上一直缺乏認知际长。就如同上文提到的“隱性歧視”,深度學習的“黑箱”兴泥,現(xiàn)有的法律法規(guī)很難對這些錯誤進行追究工育,因為不要說普通人,就連技術(shù)人員也很難找出出錯的源頭郁轻。
當人工智能的決策在人類社會中越來越重要時翅娶,我們也不得不考慮,智能為什么會犯錯好唯,犯錯了怎么辦竭沫;若要讓智能擺脫被商業(yè)或者政治目的支使的工具,真正成為人類的“伙伴”骑篙,需要怎么監(jiān)管蜕提、如何教育,才能讓智能“不作惡”靶端。
對此谎势,現(xiàn)有的法律框架內(nèi)很難有清晰的、可操作的實施方案杨名。歐盟率先在數(shù)據(jù)和算法安全領(lǐng)域做出了立法的嘗試脏榆,2018年5月即將生效的新法規(guī)規(guī)定,商業(yè)公司有責任公開“影響個人的重大決策”是否由機器自動做出台谍,且做出的決策必須要“可以解釋”(explainable)须喂。但法條并沒有規(guī)定怎么解釋,以及細到什么程度的解釋是可以接受的趁蕊。
另外一個重要的問題是坞生,讓機器求真求善,需要人類自己直面決策中的黑暗角落掷伙。在 Atari 游戲智能的測試中是己,游戲中的人工智能 bot 可以用最快的速度找到漏洞開始作弊,而游戲玩家又何嘗不是呢任柜?不管是帶有歧視的語義分析卒废,針對少數(shù)族裔進行的“智能監(jiān)視”和跟蹤,或者把已婚未育女性的簡歷扔掉的智能簡歷篩選宙地,都長期以各種形式存在于人類社會中升熊。
人工智能不是一個可預測的、完美的理性機器绸栅,它會擁有人類可能擁有的道德缺陷级野,受制于人們使用的目標和評估體系。至少目前粹胯,機器依然是人類實然世界的反應蓖柔,而不是“應然世界”的指導和先驅(qū)。對機器的訓練同樣少不了對人性和社會本身的審視——誰在使用风纠,為了什么而使用况鸣,在我們的世界中扮演著怎樣的角色?數(shù)據(jù)是誰給的竹观,訓練的目標是誰定的镐捧?我們期望中的機器潜索,會繼承我們自己的善惡嗎?
谷歌中國人工智慧和機器學習首席科學家李飛飛認為懂酱,要讓機器“不作惡”竹习,人工智能的開發(fā)需要有人本關(guān)懷×形“AI 需要反映我們?nèi)祟愔悄苤懈顚拥牟糠终埃崩铒w飛在《紐約時報》的專欄中寫道,“要讓機器能全面地感知人類思維……知道人類需要什么瞎领∶诒瑁”她認為,這已經(jīng)超越了單純計算機科學的領(lǐng)域九默,而需要心理學震放、認知科學乃至社會學的參與。
未來驼修,人工智能進入更多的領(lǐng)域澜搅、發(fā)揮更強的功能,是無可爭辯的事實邪锌。然而勉躺,我們的生產(chǎn)關(guān)系能否適應人工智能帶來的生產(chǎn)力,這句馬克思政治經(jīng)濟學的基本原則值得我們認真思考一番觅丰。我們并不想看到未來的“機器暴政”饵溅,將我們的社會綁在既有的偏見、秩序和資本操縱中妇萄。(編輯:Ent蜕企、拇姬)
作者:李子李子短信
鏈接:https://www.guokr.com/article/442855/
來源:果殼
本文版權(quán)屬于果殼網(wǎng)(guokr.com),禁止轉(zhuǎn)載冠句。如有需要轻掩,請聯(lián)系sns@guokr.com