2020年12月7日至8日,聯(lián)合國教科文組織、教育部和聯(lián)合國教科文組織全國委員會共同舉辦了“人工智能與教育的未來:培養(yǎng)人工智能時代的能力”國際論壇尤莺。在《北京共識》(2019)的基礎(chǔ)上九串,與會專家分享了在教育中發(fā)揮人工智能作用的政策和做法。盡管這一論壇于兩年多前舉辦癣亚,但是在當(dāng)今新一輪人工智能熱潮到來時丑掺,其中許多內(nèi)容依然對我們謀劃“教育+AI”具有重要的參考價值。因此述雾,我們選擇這一論壇的部分內(nèi)容來作一個專題分享街州,共同思考“教育+AI”的相關(guān)問題。
隨著人工智能逐步普及并成為跨越國界的“熱點”玻孟,所有國家都需要相互協(xié)作唆缴,以確保在人類的有效控制下運行人工智,而且是為了人類的共同利益而設(shè)計和應(yīng)用人工智能黍翎。特別需要指出的是面徽,人工智能只能被用來增強和延伸人類的能力,而不是取代人匣掸,尤其是要必須避免讓人成為人工智能工具應(yīng)用的受害者趟紊。要實現(xiàn)這一點,必須要從教育開始旺聚。一旦人工智能的能力邁過發(fā)展的關(guān)鍵點之后织阳,我們將迎來一個人工智能無處不在的世界,而我們的教育系統(tǒng)則需要確保所有學(xué)生都已提前為此做好充足的準(zhǔn)備砰粹。
但在做這些事情之前唧躲,有許多與人工智能相關(guān)的復(fù)雜挑戰(zhàn)需要我們優(yōu)先關(guān)注考慮。比如碱璃,與會專家指出弄痹,人工智能有可能存在偏見,而這些偏見的來源常常具有相當(dāng)?shù)碾[蔽性嵌器。首先肛真,構(gòu)建模型所依據(jù)的人類數(shù)據(jù)可能是有偏見的,其次爽航,為人工智能開發(fā)的算法也可能是有偏見的蚓让,甚至一個參數(shù)的微小調(diào)整就可能會在特殊情況下引發(fā)截然相反的決策,盡管這種情況發(fā)生的概率足夠低那讥珍,但是對GPT4這樣參數(shù)動輒以萬億計的大模型來說历极,這種情況并不是絕對不會發(fā)生的。換句話說衷佃,人工智能其實反映的仍然是人的干預(yù)與決策趟卸。這也意味著我們有必要在這件事情上強化人應(yīng)當(dāng)承擔(dān)的責(zé)任和對人工智能應(yīng)用的控制。假如現(xiàn)在我們面對的是作為一種武器的人工智能,我們就很容易意識到對人工智能應(yīng)用加以控制的重要性锄列,但是在日常生活或工作中图云,尤其在教育領(lǐng)域,這一點卻常常被有意或無意地忽略邻邮。
專家指出竣况,利用人工智能將低技能的任務(wù)自動化就隱含著對這一重要性的忽視。最近我們常常聽到人工智能會對很多低技能行業(yè)造成沖擊的觀點饶囚,并由此產(chǎn)生對這一類低技能的教育教學(xué)是否依然有必要的質(zhì)疑帕翻,甚至提出某些低階知識不需要再學(xué)習(xí),某些低階能力不需要再訓(xùn)練的觀點萝风。但如果真的在教育中對這類觀點不加選擇地實施,很可能會損害學(xué)生的認(rèn)知發(fā)展紫岩。
根據(jù)現(xiàn)在腦科學(xué)的研究結(jié)論规惰,人的學(xué)習(xí)并不是單純的信息輸入,學(xué)習(xí)的過程實際上帶來的是神經(jīng)元連接發(fā)生的變化泉蝌,有時候是建立一些連接歇万,有時候是剪斷部分連接,它是腦的物理改變勋陪。如果沒有低技能任務(wù)的教學(xué)訓(xùn)練贪磺,一部分腦神經(jīng)網(wǎng)絡(luò)建立不起來,神經(jīng)通路就形成不了诅愚,則相應(yīng)的高階技能也就無法形成寒锚。腦科學(xué)的研究認(rèn)為,所謂的“創(chuàng)意”“靈機(jī)一動”违孝,是只有在一定規(guī)模的刹前、普遍的神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上,才有可能隨機(jī)生成的臨時性的新通路雌桑。因此喇喉,專家們強調(diào),我們完全有理由就人工智能如何影響教育教學(xué)這個問題設(shè)置一定的規(guī)范校坑,以避免對一代人造成系統(tǒng)性的損害拣技。
如果我們審視現(xiàn)有的對許多技術(shù)所設(shè)定的規(guī)則就會發(fā)現(xiàn),實際上它們是花了幾十年時間才逐步發(fā)展完善起來的耍目,但這個過程遠(yuǎn)遠(yuǎn)落后于技術(shù)本身的發(fā)展膏斤。如今,這種情況也正發(fā)生在人工智能上制妄。專家們認(rèn)為掸绞,人工智能技術(shù)的發(fā)展之快速,及其可能產(chǎn)生的影響之深廣,迫切需要由國家出面制定和頒布一系列的監(jiān)管措施衔掸。我們需要“確保人工智能的設(shè)計是負(fù)責(zé)任的烫幕、透明的和可解釋的”。這樣我們就能知道什么人應(yīng)當(dāng)承擔(dān)什么責(zé)任敞映,決策的依據(jù)是什么较曼,相關(guān)決定又是如何作出的。只有這樣我們才可能有效地判斷人工智能及其使用是不是符合基本的道德準(zhǔn)則和公共利益振愿。
人工智能整個生命周期的源頭是“人”捷犹,是人工智能的開發(fā)者。要監(jiān)管人工智能冕末,首先需要監(jiān)管的就是人工智能的開發(fā)者萍歉,在教育這一公共領(lǐng)域更是如此。因為對于幼小的档桃、年輕的枪孩、發(fā)展中的頭腦,人工智能究竟會產(chǎn)生何種影響藻肄,我們其實并不清楚蔑舞。我們經(jīng)常看到利用大數(shù)據(jù)和人工智能構(gòu)建知識圖譜嘹屯,對學(xué)生的學(xué)習(xí)內(nèi)容攻询、練習(xí)等與知識點、能力點建立泛化的關(guān)聯(lián)州弟,根據(jù)每個學(xué)生的學(xué)習(xí)行為钧栖、練習(xí)完成情況等進(jìn)行學(xué)習(xí)資料、練習(xí)的“個性化推送”呆馁。在這個看似“智能推送”的過程背后桐经,其實是開發(fā)者的“推薦策略”的選擇,而學(xué)習(xí)者完全是被動地接受了這樣的“推薦策略”浙滤。這種“個性化”是外部的阴挣,而非內(nèi)生的,學(xué)習(xí)者是被動的纺腊,缺少了“主體性”畔咧,這種個性化只能稱作“個別化”,即學(xué)生個體被差別地對待揖膜。
在這種“個別化”策略支配下誓沸,很容易主觀地認(rèn)為一次錯誤的或失敗的學(xué)習(xí)嘗試對學(xué)習(xí)者的發(fā)展是沒有用的,從而無視了一個事實壹粟,就是某些學(xué)習(xí)者在某些情況下是通過試錯來構(gòu)建完善的知識體系拜隧,對他們來說宿百,每一次“錯誤”或者“失敗”都是有用的、有效的洪添。如果人工智能開發(fā)者只認(rèn)同“個別化”垦页,不提供給學(xué)習(xí)者更多的選擇,那么干奢,這種缺乏學(xué)習(xí)者主觀選擇的痊焊,看上去是“千人千面”的智能推送,本質(zhì)上還是“千人一面”忿峻,應(yīng)用在教學(xué)中薄啥,對個體發(fā)展而言未必是件好事。
即使我們不從這些學(xué)習(xí)科學(xué)層面的問題去討論對人工智能開發(fā)者的監(jiān)管問題逛尚,我們也需要從一些基礎(chǔ)倫理的角度對人工智能開發(fā)者進(jìn)行監(jiān)管垄惧。比如幾年前發(fā)生的“注意力頭箍”事件,佩戴智能頭箍檢測注意力的方式就是把小學(xué)生當(dāng)作機(jī)器黑低,成為沒有主體性的對象赘艳,這樣的做法違反了基本的倫理。近些年這種顯性的“頭箍”是看不到了克握,但是更加隱蔽(比如在人臉識別基礎(chǔ)上建立起來的注意力分析)的技術(shù)卻又在逐漸進(jìn)入一些“智慧教室”之中,但其中的倫理問題卻并沒有得到足夠的重視枷踏。
相反菩暗,在智能汽車制造領(lǐng)域?qū)θ斯ぶ悄艿膽?yīng)用顯得謹(jǐn)慎得多。到目前為止旭蠕,所有廠商始終強調(diào)的是“輔助駕駛”停团,而不是媒體口中的“自動駕駛”。因為掏熬,一旦涉及“自動駕駛”佑稠,就意味著車輛在行駛中遇到危急情況時將要代替人來做出類似于經(jīng)典道德難題——“電車難題”的決策。這種決策可能就意味著對車內(nèi)或車外的人與動物等的生命旗芬、健康權(quán)的判定舌胶。2016年麻省理工學(xué)院還專門建立了一個名為“道德機(jī)器(Moral Machine)”的在線實驗平臺(https://www.moralmachine.net/)〈裕“道德機(jī)器”(Moral Machine)被設(shè)計為一款多語言的在線“嚴(yán)肅游戲”幔嫂,用于盡可能地在全世界范圍內(nèi)收集數(shù)據(jù),通過了解公民希望自動駕駛汽車在不可避免的事故情況下如何解決道德難題來進(jìn)行道德偏好的評估誊薄。實驗結(jié)果于2018年10月發(fā)表在《自然》雜志網(wǎng)站上履恩。目前這個實驗平臺依然在運行中,參與者還可以定制多種條件呢蔫,以模擬各種可能面臨的情境和生存概率切心,豐富實驗場景。
由此可見,在對人工智能應(yīng)用于教育領(lǐng)域進(jìn)行授權(quán)監(jiān)管之前绽昏,需要強有力的倫理學(xué)為基礎(chǔ)协屡。2021年11月舉行的教科文組織大會第41屆會議上審議通過的《人工智能倫理問題建議書》在這個領(lǐng)域做了非常有益的工作。
建議書指出而涉,“在采取適當(dāng)措施降低風(fēng)險時著瓶,人們應(yīng)有充分理由相信人工智能系統(tǒng)能夠帶來個人利益和共享利益”,同時強調(diào)“在人工智能系統(tǒng)生命周期的任何階段啼县,任何人或人類社群在身體材原、經(jīng)濟(jì)、社會季眷、政治余蟹、文化或精神等任何方面,都不應(yīng)受到損害或被迫居于從屬地位……在人工智能系統(tǒng)的整個生命周期內(nèi)子刮,人會與人工智能系統(tǒng)展開互動……在這一互動過程中威酒,人絕不應(yīng)被物化,其尊嚴(yán)不應(yīng)以其他任何方式受到損害……”挺峡。
正如《人工智能倫理問題建議書》反復(fù)強調(diào)的葵孤,對于人工智能的監(jiān)管應(yīng)當(dāng)貫穿于“人工智能系統(tǒng)的整個生命周期內(nèi)”。如今橱赠,GPT4尤仍、文心一言、Bard“你方唱罷我登場”狭姨,推動人工智能進(jìn)入教育領(lǐng)域也將迎來新一輪高潮宰啦。這也是我們將這一分享專題的第一篇以“監(jiān)管”為主題的原因。那么饼拍,作為教育者赡模,我們還需要思考些什么,做些什么呢?歡迎您留言討論。
下一篇我們將分享“人工智能與教育的未來:培養(yǎng)人工智能時代的能力”國際論壇中關(guān)于人工智能時代教育要為學(xué)生準(zhǔn)備哪些素養(yǎng)與能力的話題洋只,敬請期待咖城。