今天一早号醉,班級小群就在轉(zhuǎn)發(fā)杰教授的發(fā)表在《求索》上的論文反症。晚上小小妞睡前,瀏覽謝師的公眾號畔派,無意中讀到如下篇铅碍。二位所思考的,于只求溫飽的我等线椰,似是偏深胞谈,卻息息而相關(guān)。
同學(xué)說:
《人工智能體的道德主體地位問題探討》憨愉,《求索》2022年第1期烦绳,第58-65頁。
摘要:隨著人工智能技術(shù)的不斷完善莱衩,人工智能體越來越具有類人化的特征爵嗅,對原來專屬于人類的道德主體地位帶來了嚴(yán)重的沖擊。事實上笨蚁,倫理學(xué)家們也一直致力于擴大道德主體的范圍,對于是否應(yīng)該賦予人工智能體以道德主體地位形成了正反兩方面的意見趟庄。從人類道德的起源和發(fā)展以及人工智能體本身是否具有意識括细、情感等實際情況來看,它目前不可能擁有道德主體地位戚啥,但我們不能因此而忽視其對倫理學(xué)發(fā)展帶來的啟示奋单,以及人工智能技術(shù)潛在的風(fēng)險。
關(guān)鍵詞:人工智能體猫十;道德主體览濒;意識;情感
科學(xué)技術(shù)的持續(xù)發(fā)展深刻而廣泛地影響著人類的生產(chǎn)和生活拖云。一方面贷笛,人們十分欣喜于這些技術(shù)成果帶來的高效生產(chǎn)和便利生活,認(rèn)為它們終將促進(jìn)人的自由和全面發(fā)展宙项;另一方面乏苦,有些學(xué)者則對科學(xué)技術(shù)的高速發(fā)展表示擔(dān)憂,擔(dān)心它們會給人類社會帶來不可預(yù)測的負(fù)面影響,會造成嚴(yán)重的社會問題和倫理道德問題汇荐。近年來逐漸成為人們關(guān)注熱點的人工智能技術(shù)更是引發(fā)了大量的討論和爭議洞就,人工智能產(chǎn)業(yè)領(lǐng)域新聞不斷,一系列與法律和倫理相關(guān)的爭論此起彼伏掀淘。很多科學(xué)家對于人工智能的未來發(fā)展走向憂心忡忡旬蟋。霍金(Stephen W. Hawking)就曾認(rèn)為革娄,人工智能的未來發(fā)展很可能會導(dǎo)致人類文明的終結(jié)倾贰。在這些爭議的話題中,其中一個非常重要的問題就是稠腊,人工智能機器能否自主選擇道德行為并為其自身的行為承擔(dān)責(zé)任躁染?換言之,人工智能體有無可能成為道德主體架忌?尼克·博斯特羅姆(Nick Bostrom)和埃利澤·尤德考斯基(Eliezer Yudkowsky)在《人工智能的倫理學(xué)》一文中指出:“制造會思考的機器的可能性引發(fā)了一系列的倫理問題吞彤,而這些問題既涉及確保機器不傷害人類與其他道德上關(guān)聯(lián)的存在者,也與機器本身的道德地位有關(guān)叹放∈嗡。”
一、學(xué)界對于人工智能體道德主體地位問題的爭議
當(dāng)前井仰,人工智能技術(shù)有著驚人的發(fā)展速度埋嵌,也引發(fā)了一系列爭議,其中最主要的問題之一就是人工智能很多時候都是根據(jù)程序自主作出行為選擇俱恶,那它是否可能成為跟人類相類似的道德主體雹嗦?無疑,這是對專屬于人類的道德主體地位的重大沖擊合是。
人工智能技術(shù)發(fā)展到今天了罪,其智能水平已經(jīng)比較接近人類,能替代人類完成很多簡單重復(fù)的聪全、海量計算的泊藕、高風(fēng)險的事情。正因為如此难礼,女性智能機器人索菲亞(Sophia)才順利獲得了公民身份那么索菲亞作為一個公民娃圆,她是否應(yīng)當(dāng)擁有普通人類成員所擁有的道德主體地位呢?這個問題引發(fā)了包括人工智能領(lǐng)域在內(nèi)的眾多學(xué)者極大的爭議蛾茉。有人認(rèn)為讼呢,索菲亞是人類制造出來的產(chǎn)品,是跟其他機器一樣的物質(zhì)存在臀稚,與擁有血肉之軀的理性的人不可同日而語吝岭,其行為均服從于內(nèi)置的程序,不可能出于內(nèi)心的善良意志而做出符合人類道德規(guī)范的事,因此不存在道德主體的問題窜管。例如達(dá)闥科技的創(chuàng)始人散劫、首席執(zhí)行官黃曉慶指出,我們今天必須對機器人產(chǎn)業(yè)的發(fā)展作一個非常清醒的定位幕帆,那就是機器人應(yīng)該還是機器获搏,是我們?nèi)祟惸芰Φ难由臁R簿褪钦f失乾,機器人僅僅是作為物質(zhì)存在的機器常熙,不是有靈魂的理性的人類。有人則認(rèn)為碱茁,隨著人工智能技術(shù)的不斷發(fā)展和完善裸卫,人工智能體將會擁有不斷增強的自主學(xué)習(xí)能力和自我完善功能,其自我意識也會得到不斷的完善纽竣,與人類的區(qū)別將會越來越小墓贿,因此人類應(yīng)當(dāng)承認(rèn)和尊重其在道德領(lǐng)域的權(quán)利與地位。瑪?shù)倌取ち_斯布拉特(Martine Rothblatt)就認(rèn)為蜓氨,“當(dāng)我們做到像尊重自己一樣尊重他人(即虛擬人)聋袋,并將這一美德普及至世間各處時,我們就為明日世界做了最好的準(zhǔn)備”穴吹。在她看來幽勒,我們應(yīng)當(dāng)主動承認(rèn)人工智能體的包括道德主體地位和客體地位在內(nèi)的各種權(quán)利,如此才能最終真正解決人和機器之間深層次的矛盾港令。
總結(jié)起來看啥容,支持賦予人工智能體以某些與人類相似的權(quán)利(如道德主體地位)的一方認(rèn)為,賦予人工智能體以道德主體是人類將世間萬物平等的理念付諸實踐的現(xiàn)實表現(xiàn)顷霹,是破除人類中心主義思想禁錮的一種嘗試和努力干毅,具有一定的合理性。但反對者則指出泼返,人類賦予人工智能以道德主體地位的舉動,其實并不能真正突破人類中心主義思維姨拥,反而可能導(dǎo)致一系列法律與倫理上的困境绅喉。有學(xué)者認(rèn)為,“在論證人工智能之時叫乌,這些自稱‘超人類中心主義’的論證柴罐,卻依然是人類中心主義的”。也就是說憨奸,由人類來決定并賦予人工智能體以道德主體地位革屠,表面上是要破除人類中心主義的禁錮,但實際上仍然蘊含著人類中心主義的基本理念。原因在于:對人工智能體道德主體地位進(jìn)行確認(rèn)和界定似芝,不能由人類全權(quán)代理那婉,人工智能體自身必須在場,人類需要聽取人工智能體自身表達(dá)的訴求党瓮,不能由人類單方面宣布或賦予人工智能體以道德主體地位详炬,否則依舊落入了人類中心主義窠臼之中。我們對人工智能體道德主體的內(nèi)涵和外延的界定寞奸,都是人類在人工智能體沒有參與并表達(dá)訴求的情況下進(jìn)行的呛谜。它們自身需不需要道德主體地位,需要何種意義上的道德主體地位枪萄,這樣一些關(guān)鍵的問題隐岛,人工智能體并沒有機會表達(dá)。因此這實質(zhì)上依然是人類中心主義理念的延續(xù)瓷翻。另外聚凹,賦予人工智能體以道德主體地位,彰顯世間萬物平等逻悠,確實是一種美好的愿景元践,但任何以傷害人類自身作為代價的主張都是值得商榷的。如果我們賦予人工智能體有限的甚至全部的道德主體地位童谒,將會對人類社會的現(xiàn)狀和未來命運產(chǎn)生顛覆性的单旁,甚至可能是毀滅性的重大沖擊。因此饥伊,賦予人工智能體道德主體地位會帶來嚴(yán)重的法律和倫理問題∠蠡耄現(xiàn)有的地球秩序無不由人類主導(dǎo)而制定完成,世界上不同國家和地區(qū)的倫理道德和法律秩序都是人類為了維護(hù)穩(wěn)定與發(fā)展而由人類相互之間協(xié)商制定的琅豆。無疑愉豺,人工智能體道德主體地位的界定與確認(rèn),也應(yīng)完全由人類來決定和完成茫因。如果人工智能體獲得有限的甚至完全的道德主體地位蚪拦,那么人類面臨的不可預(yù)見風(fēng)險也將逐步增加。如果人工智能體最終獲得了與人類同樣的道德主體地位冻押,那么他們將成為自然人之外的另一類獨立的生命體驰贷,它們將不滿足于人類社會現(xiàn)有的法律制度和倫理道德體系,而會要求建立更適應(yīng)于其自身的社會規(guī)范和制度體系洛巢。這樣括袒,人類將與地球上其他生物一樣,只是普通一員稿茉,人類中心主義理念將徹底被打破锹锰。由于人工智能體擁有包括人類在內(nèi)的其他生物體所無法比擬的超級能力芥炭,一個新的時代即人工智能中心時代即將來臨。地球現(xiàn)有的法律和道德秩序以及人類未來的命運將會面臨著顛覆性的甚至毀滅性的挑戰(zhàn)恃慧。
人工智能體能否擁有道德主體地位的問題园蝠,關(guān)涉人工智能體是否擁有心靈的問題。如前所述糕伐,索菲亞已正式成為沙特阿拉伯王國的公民砰琢,作為公民,她是否可以像人類個體一樣對自己的行為承擔(dān)責(zé)任良瞧?人們一般認(rèn)為陪汽,一個個體或種族如果擁有道德主體地位,就意味著他一定有心靈褥蚯。因此人工智能體如果要擁有道德主體地位而獲得人類的尊重挚冤,那么它必須至少擁有心靈。沒有心靈的物體肯定無法理解人類現(xiàn)存的道德規(guī)范并根據(jù)這些規(guī)范作出合乎人類倫理的行為赞庶。因此學(xué)界對于人工智能體是否應(yīng)該擁有道德主體的爭議训挡,主要落腳于研究人工智能體是否擁有類似于人類的心靈的問題。這就要求我們對作為認(rèn)知系統(tǒng)的人工智能體是否擁有與人類一樣的心靈作出精確的判斷歧强。
學(xué)界對作為人類最古老的形而上學(xué)議題的“心靈”的問題一直都爭論不休澜薄,一方面人類永遠(yuǎn)都無法證明我們之外的外部世界是存在的,這被稱之為“哲學(xué)的恥辱”摊册;另一方面肤京,我們無法證明他人心靈的存在,則成了“哲學(xué)的另一個恥辱”茅特。相比于“世界存不存在”的難題忘分,“他人心靈是否存在”的難題更讓人覺得撲朔迷離。因為我們雖然無法理性地證明外部世界的存在白修,但至少我們能感知到外部是客觀存在的妒峦;對于他人之心,我們根本無法感知他人的心靈兵睛,更無法對其進(jìn)行直接指稱肯骇。心靈永遠(yuǎn)被封閉在個人的身體之內(nèi),我們無法判定別人是否會跟自己一樣會知冷暖祖很、察悲喜累盗,這便是確認(rèn)和認(rèn)識他心的難處所在。
關(guān)于人工智能體是否有心靈的爭議歷史悠久突琳。支持給人工智能體以道德主體地位的人認(rèn)為,我們至今都無法證明他人是否有跟我們同樣的心靈符相,但我們會想當(dāng)然地認(rèn)為他人是其心靈的合法持有者拆融。在面對人工智能體時蠢琳,我們同樣無法確認(rèn)其心靈的存在,我們又憑什么拒絕承認(rèn)它們擁有心靈呢镜豹?丹尼爾·丹尼特(Daniel C. Dennett)指出傲须,人僅僅是一種擁有心靈的機器,人工智能體作為一種特殊的數(shù)據(jù)轉(zhuǎn)換的機器也應(yīng)該可以擁有思維與意識趟脂。他認(rèn)為泰讽,類似于龍蝦這樣的低等動物都會有自我意識或類似于概念的東西,機器人更應(yīng)該有昔期。他指出已卸,對于自我意識或類似于概念的東西,“這些東西你怎么叫都可以硼一,但機器人也都有累澡。也許你可以把它們叫作潛意識或前意識概念。這是自我意識的初級形式”般贼。另一方面愧哟,以約翰·塞爾(John R. Searle)為代表的部分心靈哲學(xué)家則反對將心靈賦予人工智能體。他提出了強人工智能與弱人工智能的概念之后哼蛆,關(guān)于人工智能體的道德主體問題就轉(zhuǎn)變?yōu)榱藦娙斯ぶ悄苁欠窨赡芎褪欠駪?yīng)該發(fā)展的問題蕊梧。塞爾認(rèn)為,弱人工智能本身不具備心靈腮介,只是心靈的抽象模擬肥矢,而強人工智能本身就是心靈。也就是說萤厅,塞爾認(rèn)為強人工智能本身就是有思維和意識的橄抹。他個人反對強人工智能的研究,認(rèn)為人工智能體的運行機理就是數(shù)據(jù)的轉(zhuǎn)換惕味,而數(shù)據(jù)則僅僅是對一些事件的編碼楼誓,人工智能體不可能掌握編碼與事件本身之間的對應(yīng)關(guān)系,因此其運行過程中對數(shù)據(jù)本身不可能有真正的理解名挥。心靈問題對人工智能體的道德主體問題造成了根本且致命的挑戰(zhàn)疟羹,“至少在所謂強人工智能出現(xiàn)之前,我們還不能稱這樣的知識自動發(fā)現(xiàn)系統(tǒng)為真正的認(rèn)識主體”禀倔。
二榄融、人類擴展道德主體的努力
人工智能體究竟是否應(yīng)該被賦予道德主體地位的問題,涉及人類擴展道德主體的努力救湖。歷史上倫理學(xué)家們曾經(jīng)試圖將道德主體的范圍從人類擴展至其他生物和人類技術(shù)的產(chǎn)物愧杯。
道德主體,意指具有主觀的判斷能力并且能夠為自身行為承擔(dān)道德責(zé)任的人鞋既。也就是說力九,道德主體是指具有自我意識耍铜、有道德認(rèn)知和理性推理能力,并進(jìn)行道德行為選擇跌前、獨立承擔(dān)其道德責(zé)的理性行為體棕兼。從這個意義來講,除了具有理性思維能力和自我意識的人類以外抵乓,其他事物和特殊人群都不足以成為道德主體伴挚。康德認(rèn)為道德法則來自理性主體本身灾炭,并由理性主體所遵守茎芋。人類成員中的嬰兒、智障人群咆贬,以及精神病患者等屬于特殊情況败徊,他們雖然具有有限的理性能力,也有初步的道德能力掏缎,但他們并不能對自己的道德選擇承擔(dān)完全的責(zé)任皱蹦,而是由他們的法定監(jiān)護(hù)人為他們的行為承擔(dān)道德責(zé)任。羅爾斯(John Rawls)對康德這一主張的理解是眷蜈,“絕對命令必須把道德法則作為自律原則再現(xiàn)出來沪哺,所以從我們對于這個法則的意識來看,對我們(作為理性的人)來說它具有至上的權(quán)威性酌儒,我們能夠接受我們能夠把自律原則作為理性原則來接受辜妓,并按照它來行動”。羅爾斯認(rèn)為忌怎,按照康德的思路籍滴,我們?nèi)祟愖鳛槔硇缘拇嬖谖飸?yīng)該把道德法則視為至高無上的權(quán)威法則×裥ィ可見孽惰,在康德看來,在人類發(fā)展的歷史進(jìn)程中鸥印,唯有理性的有自我意識的人類而非任何其他形式的他在之物是道德的主體勋功。倫理學(xué)研究的是人類社會中個人與他人之間的倫理關(guān)系,人之外的其他事物均沒有資格成為倫理學(xué)觀照的對象库说。然而倫理學(xué)家們對于道德主體的擴展努力一直沒有停止過狂鞋。
首先是試圖將道德主體擴展到自然界中人之外的其他生物。隨著西方工業(yè)化進(jìn)程的完成潜的,西方經(jīng)濟(jì)社會的發(fā)展取得了極大的進(jìn)步骚揍,但生態(tài)與環(huán)境問題也日益凸顯出來含末。生態(tài)倫理學(xué)及相關(guān)的學(xué)科便應(yīng)運而生了眶熬。生態(tài)倫理學(xué)是人類基于嚴(yán)重的生態(tài)危機所作的道德考量而發(fā)展出來的新的倫理學(xué)分支畦徘。它的顯著特點是將人與自然的關(guān)系納入了倫理學(xué)研究的范圍阐肤,主張破除傳統(tǒng)的人與自然之間主客二分的思維方式,試圖將西方文明中的人類中心主義發(fā)展為生態(tài)中心主義浑塞。學(xué)界關(guān)于生態(tài)倫理學(xué)的爭論主要集中在如何看待人與自然之間的辯證關(guān)系。正如李德順?biāo)J(rèn)為的政己,生態(tài)倫理學(xué)界爭論的焦點在于“確定人的宇宙地位酌壕,或者確定自然與人的關(guān)系”。即人類作為一種理性的存在歇由,在自然界中是否應(yīng)該處于中心位置的問題卵牍。人類中心主義者認(rèn)為,自然界僅僅是人類賴以生存與發(fā)展的外部條件沦泌,離開了人類糊昙,自然毫無價值可言。因此他們認(rèn)為只有理性的人類才能成為道德的主體谢谦,除此之外的非人者無道德可論释牺。所以他們主張只有人類才是價值和道德的主體。生態(tài)中心主義則認(rèn)為回挽,人類與自然是平等的没咙,人類是自然界長期演化的產(chǎn)物,是自然界眾多存在物的一個種類千劈。自然界本身有著其內(nèi)在價值祭刚,它理應(yīng)得到人類平等的對待。這無疑降低了人類在其與自然的二元關(guān)系中所擁有的主體地位墙牌。環(huán)境倫理學(xué)家羅爾斯頓(Holmes Rolston)認(rèn)為地球上除了人之外的其他有機體擁有某種屬于它自己的內(nèi)在的善涡驮,人類所生存的環(huán)境包括動物、植物和微生物在內(nèi)的各個物種都應(yīng)該擁有道德主體地位喜滨。他對以往人們所堅持的自然界只有相對于人而言的有用性才體現(xiàn)出其價值的觀點提出了反問:“難道不是由于地球本身就是有價值的人們才認(rèn)為它有價值(而不是相反)嗎捉捅?難道這個生命支撐系統(tǒng)的價值真的僅僅是作為后來者的人類的利益而存在著,或者地球本身不是一個在人類產(chǎn)生以前就已存在鸿市,且直到現(xiàn)在仍然是人們利用它的價值前提的神奇之地锯梁?”在他看來,地球及其上面的所有生物自身都是有價值的焰情。在生態(tài)危機日益加劇的背景下陌凳,生態(tài)中心主義的各支流派致力于將道德主體的范圍擴展至人類之外的其他生命體。
其次是試圖將道德主體擴展至人類之外的人工物的努力内舟。隨著科學(xué)技術(shù)的迅猛發(fā)展合敦,大量非智能的和智能的技術(shù)產(chǎn)物如雨后春筍般涌現(xiàn),給人類以極大的生活便利和生產(chǎn)效率验游。比如我們經(jīng)吵涞海看到一些具有潛在風(fēng)險的路段上設(shè)計和安置了減速帶保檐,駕駛員在經(jīng)過這一路段時不得不減速駕駛,從而避免交通事故的發(fā)生崔梗。拉圖爾(Bruno Latour)認(rèn)為這表明技術(shù)人工物如減速帶確實在執(zhí)行人類道德夜只,目的在于調(diào)節(jié)人類的行為并使其避開風(fēng)險,朝著人類道德規(guī)范希望的方向發(fā)展蒜魄,因此種技術(shù)產(chǎn)品具有潛在的類似于人類的道德主體地位扔亥。他在文章中將人工物的道德作用隱喻為“暗物質(zhì)”。他認(rèn)為天文學(xué)家長期沒有發(fā)現(xiàn)宇宙中的“暗物質(zhì)”谈为,而倫理學(xué)家也長期忽視倫理學(xué)中的“暗物質(zhì)”旅挤。拉圖爾進(jìn)一步指出,人類通過賦予技術(shù)設(shè)計以道德規(guī)范伞鲫,通過技術(shù)人工物對人類行為進(jìn)行調(diào)節(jié)粘茄,因此技術(shù)人工物充當(dāng)著重要的行為規(guī)范者的角色,應(yīng)該擁有道德主體地位秕脓。漢斯·阿切特胡斯(Hans Achterhuis)在此基礎(chǔ)上提出了“人工物的道德”的概念柒瓣。他指出有些人工物如景區(qū)和影院的驗票閘門可以規(guī)范逃票的不道德行為,可見這樣的人工物在現(xiàn)實生活中可以倡導(dǎo)人類行為選擇的道德自主性撒会,實際上在行使著道德主體的權(quán)利和義務(wù)嘹朗,應(yīng)該可以視為道德主體。又如我們在車上增加一些技術(shù)設(shè)備诵肛,可以監(jiān)測駕駛員是否飲酒或系安全帶屹培,及時發(fā)出警告,甚至禁止汽車發(fā)動怔檩,那么這些設(shè)備作為技術(shù)人工物就作出了道德行為褪秀,它們應(yīng)該具有道德主體地位。維貝克(Peter-Paul Verbeek)也支持這個觀點薛训。他認(rèn)為人工物能很好地執(zhí)行人類設(shè)計的道德理念媒吗,對人類的行為進(jìn)行道德維度的調(diào)節(jié)。他指出:“技術(shù)人工物或許積極地影響著其使用者乙埃,并且改變著使用者感知世界闸英、在世界之中及使用者之間相互關(guān)系的方式。與人類或多或少地相似介袜,技術(shù)人工物本身及其活動可被證明為在道德上是善或惡的甫何。”因此它不是簡單的生產(chǎn)或生活工具遇伞,而是道德承載者辙喂、執(zhí)行者和調(diào)節(jié)者,與人類一樣是道德主體。
可見巍耗,隨著科學(xué)技術(shù)的不斷進(jìn)步秋麸,技術(shù)人工物開始逐步擁有人類的部分甚至全部智能。對這些智能性的技術(shù)人工物的道德主體地位的研究也就被學(xué)者們提上了日程炬太。丹尼爾森(Peter Denielson)灸蟆、科林·阿倫(Colin Allen)、霍爾(Josh Storrs hall)亲族、瓦納(Gary Varner)次乓、澤欣爾(Jason Zinser)等人都撰文或撰書表達(dá)了支持賦予人工智能體以道德主體地位的觀點。
總的來說孽水,自西方工業(yè)革命以來,倫理學(xué)界對于擴展道德主體的努力一直沒有停止過城看。在人工智能技術(shù)不斷成熟并深刻影響人類生存方式的今天女气,關(guān)于人工智能體是否擁有道德主體地位的討論更是此起彼伏。主張人類不能賦予人工智能體以道德主體地位的學(xué)者認(rèn)為人工智能僅僅是一種無生命的物質(zhì)存在而已测柠,對待人工智能體就應(yīng)該像對待普通的機器一樣炼鞠;主張人工智能應(yīng)該擁有道德主體地位的學(xué)者認(rèn)為我們應(yīng)視人工智能體為與動物、植物以及人類一樣的生命主體轰胁,它們應(yīng)該擁有與人類同樣的權(quán)利和地位谒主。
從倫理學(xué)發(fā)展歷史的角度來看,道德的接受者或者道德的客體的范圍的確在不斷擴大赃阀。比如在很長的一段時間內(nèi)霎肯,犯人、奴隸榛斯、動物等观游,或多或少被倫理學(xué)者們排除在道德接受者之外,它們無權(quán)享受道德主體善意的對待驮俗。但目前懂缕,各國的倫理學(xué)者都試圖改變這種狀況,他們盡力為服刑的犯人和動物的權(quán)利搖旗吶喊王凑。有些環(huán)境倫理學(xué)家則提出搪柑,地球生態(tài)環(huán)境也算得上是道德接受者,所以也要享有與人類相似的權(quán)利索烹。這些觀點得到了很多人包括普通民眾的支持工碾。而擴展道德主體的努力則主要是基于應(yīng)對生態(tài)危機和打破人類中心主義理念的初衷的,目前爭議比較大术荤。不管是何種考慮倚喂,目前我們的倫理學(xué)研究仍然只能在已有的倫理學(xué)理念的基石上探索,人類究竟能否將自身的倫理原則賦予智能機器從而使之成為一個道德主體,仍然是一個不確定的問題端圈。
三焦读、理性對待人工智能體的道德主體地位問題
筆者認(rèn)為,一方面舱权,從人類道德的起源和發(fā)展以及人工智能體本身是否具有意識矗晃、情感等實際情況來看,它目前不可能擁有道德主體的地位宴倍。另一方面张症,我們也不能忽視關(guān)于人工智能體道德主體地位的爭論所帶來的積極影響。
首先鸵贬,人工智能體目前無法取得道德主體的地位俗他。
第一,就人類道德的起源來說阔逼,道德不是從一開始就有的兆衅,而是歷史的產(chǎn)物,是人類社會形成并發(fā)展到一定階段才出現(xiàn)的嗜浮。人猿揖別之時羡亩,人類個體的力量相當(dāng)有限,無論是狩獵還是農(nóng)耕危融,或是繁衍后代和發(fā)生部落之間的爭斗畏铆,依靠個人的單打獨斗都遠(yuǎn)不如結(jié)群而居更為有利,因此群居成為人類最為重要的生活方式吉殃。但是在生產(chǎn)力極度低下的社會條件下辞居,群居生活中人們經(jīng)常會發(fā)生個人與個人之間,個人與集體之間的利益矛盾寨腔,甚至沖突速侈,出現(xiàn)“一個人與每個人的戰(zhàn)爭”,這極不利于人類整體的生存與發(fā)展迫卢。此時有威望有地位的領(lǐng)袖人物就會挺身而出倚搬,為群居的集體制定出一些每個人都必須共同遵守的行為規(guī)范,每個人都必須犧牲部分個人利益以換取更為基本的團(tuán)體利益和個人利益乾蛤,這就是道德規(guī)范最初產(chǎn)生的緣由每界。道德規(guī)范形成之后,所有的社會成員都必須自覺遵守家卖,克制一些自私的沖動和行為眨层。遵守規(guī)范者就會受到輿論的鼓勵和贊賞,違反者則受到社會輿論譴責(zé)與懲罰上荡。這樣人們受到強有力的內(nèi)心力量的鞭策趴樱,能夠更好地規(guī)范自己的行為馒闷。每個國家、地區(qū)和民族都會在漫長的歷史長河中形成固有的系統(tǒng)性的道德規(guī)范叁征,并通過家庭纳账、學(xué)校、媒體等途徑一代代地傳承下來捺疼,并不斷完善疏虫。可見道德是人類為了更好地生存和發(fā)展而產(chǎn)生的啤呼,隨著人類社會的不斷發(fā)展變化而不斷發(fā)展完善卧秘。道德自始至終都與人類息息相關(guān),人類就是道德的主體官扣,離開了人類則道德無從談起翅敌。
第二,人工智能體不可能擁有意識惕蹄。人工智能體整體上由兩個部分構(gòu)成哼御,即硬件與軟件。硬件由一系列復(fù)雜的物理性而非生物性的存在構(gòu)成焊唬,毫無疑問物理性存在不具備自我意識和意向能力。軟件部分的核心是一系列復(fù)雜的算法程序看靠,那么這些算法程序是否具有意識和意向能力呢赶促?笛卡爾(René Descartes)認(rèn)為,機器擁有意識的觀點是難以理解的挟炬,因為心靈跟身體在本質(zhì)上是不同的鸥滨。身體具有廣延的特征,處于可見的時空之中谤祖。人類的心靈與身體完全不同婿滓,它是由精神原子所構(gòu)成的,是具有思考能力和自我意識的粥喜。智能機器同人的身體一樣也是實物凸主,它是人類身體的一種延伸,它不可能具有類似于心靈的那些智能特征额湘。目前人工智能學(xué)界的算法程序各異卿吐,但幾乎都遵循“輸入—輸出”的基本模式,沒有信息的輸入就不會有相關(guān)決策的輸出锋华,它不能違反物理規(guī)律嗡官。而人類的大腦意識活動則復(fù)雜得多,信息輸入無疑會在大腦中產(chǎn)生快速的反應(yīng)并作出應(yīng)對毯焕。即便暫時沒有信息輸入衍腥,人類大腦也會不知疲倦地運行,所謂“胡思亂想”“浮想連篇”就是這種情況。大腦儲存的各種信息也會在某個不確定的時間產(chǎn)生化學(xué)反應(yīng)婆咸,產(chǎn)生“靈感”“頓悟”等現(xiàn)象竹捉。可見人類的大腦意識活動并非完全受到純粹物理規(guī)則的限制擅耽。
計算主義學(xué)派的學(xué)者認(rèn)為活孩,不管是人類還是人工智能,其認(rèn)知行為都可以歸結(jié)為計算乖仇,“計算主義認(rèn)為智能行為是由智能體的認(rèn)知系統(tǒng)(或大腦)進(jìn)行的計算來因果性地解釋的憾儒,用大致等價的術(shù)語來說,計算主義認(rèn)為認(rèn)知即計算”乃沙。但是塞爾批評了這種觀點:“紐厄爾和西蒙(1963)在其著作中寫道起趾,計算機的認(rèn)知與人類的完全一樣。我喜歡他們的直率……我想要論證警儒,帶程序的計算機理解的實際上就是汽車训裆、計算器理解的東西,也就是說蜀铲,它們其實談不上理解了什么边琉。”塞爾設(shè)計了中文屋思想實驗记劝,在實驗中变姨,塞爾通過智能機器根據(jù)中英文對照手冊對輸入的中文符號進(jìn)行轉(zhuǎn)換,最后輸出相應(yīng)的英文厌丑。在不了解情況的人看來定欧,中文屋內(nèi)的人應(yīng)該是個中文通,但塞爾認(rèn)為怒竿,屋內(nèi)的人并不理解中文砍鸠,因為屋內(nèi)人的翻譯僅僅涉及句法學(xué),而與語義學(xué)無關(guān)耕驰。事實上爷辱,人類的意識活動和意向性活動都具有語義特征,人工智能體無法真正通過掌握語義學(xué)實現(xiàn)對輸入信息的理解朦肘。人們所說的智能機器的學(xué)習(xí)能力絕非類似于人類的學(xué)習(xí)托嚣,而僅僅是預(yù)先輸入的符號和概念的重新組合,無法應(yīng)對復(fù)雜的實際情境和多變的詞語含義厚骗。例如阿西莫夫(Isaac Asimov)提出的機器人三定律第一條示启,即“機器人不得傷害人類或因不作為傷害人類”,在這一條定律中领舰,“傷害”“人類”“傷害人類”這些符號都有著各種含義夫嗓,也會因情境的變化而變化迟螺,人工智能體很難在復(fù)雜的情境下作出正確的判斷和抉擇。例如舍咖,如果有人正在偷盜或獵殺受國家保護(hù)的野生動物而受到攻擊時矩父,智能機器是應(yīng)該制止甚至傷害這個人,還是應(yīng)該協(xié)助他完成自己的目標(biāo)呢排霉?人類自然很容易作出判斷和行動窍株,但如果讓人工智能體來處理這種情況,則會面臨巨大的風(fēng)險攻柠。因此人工智能體不可能也不應(yīng)該成為與人類平等的道德主體球订。
有人提出,我們可以通過“自上而下”與“自下而上”兩種方式在人工智能體中嵌入道德規(guī)范瑰钮。所謂“自上而下”的嵌入方式就是在人工智能體的設(shè)計過程中將“正義論”“義務(wù)論”“德性論”等人類社會最重要的倫理理論嵌入其中冒滩,使之成為道德主體。阿西莫夫的機器人三定律被認(rèn)為是“自上而下”模式的重點考慮內(nèi)容浪谴。任何討論自上而下式機器人道德設(shè)計的人都不能不談阿西莫夫三定律开睡。可見苟耻,“自上而下”的進(jìn)路試圖將普遍性的倫理學(xué)原則和理論嵌入人工智能而將其構(gòu)建為道德主體篇恒。如前所述,人工智能處理信息的主要依據(jù)是語法凶杖,但倫理道德問題涉及非常多異常復(fù)雜的語義問題和情境問題婚度,這些問題,如電車難題官卡,即便是人類有時也會感到非常棘手,很難作出抉擇醋虏,人工智能系統(tǒng)就更不可能準(zhǔn)確無誤地進(jìn)行處理寻咒。所謂“自下而上”的模式,其理念實際上是要人工智能體像幼年人類一樣颈嚼,經(jīng)歷瑣碎而復(fù)雜的倫理事件毛秘,逐步學(xué)會和掌握人類社會的相關(guān)倫理理論和道德規(guī)范,自己摸索處理倫理問題的合理方式阻课,最終形成自己的道德原則和道德選擇能力叫挟,能對自己的選擇和行為承擔(dān)責(zé)任。也就是說要將人工智能體培育為一種能夠自由思考限煞、自我判斷的主體抹恳。然而,幾乎所有的智能機器都僅僅具備某一種或幾種能力署驻,是人類為了某個特定的目的或任務(wù)而設(shè)計出來的奋献。比如智能無人駕駛健霹、智能新聞寫作、智能下棋機器人等都可以在人類為其編寫的算法程序的基礎(chǔ)上瓶蚂,通過深度學(xué)習(xí)而在自己熟悉的領(lǐng)域內(nèi)不斷向人類的相關(guān)能力水平靠近糖埋,在這個領(lǐng)域內(nèi)實現(xiàn)一定程度的自由選擇,但它們都無法超越被設(shè)計好的算法程序去執(zhí)行系統(tǒng)之外的任務(wù)窃这,如智能下棋機器人就無法完成智能無人駕駛系統(tǒng)或手術(shù)機器人的工作瞳别。因此人類無法真正創(chuàng)造出全能的擁有人類所有智慧和技能的人工智能體,人工智能體無法真正實現(xiàn)理性人類那樣的意識自由與自主抉擇杭攻,更不可能擁有獨立承擔(dān)道德責(zé)任的能力祟敛。與人工智能體不同的是,與人的生物性身體緊密結(jié)合的人類意識是自由的朴上、全面的垒棋、系統(tǒng)的,并不局限于對單一領(lǐng)域的事物和現(xiàn)象的反思與抉擇痪宰。荷蘭學(xué)者布瑞(Philip Brey)指出叼架,要成為道德主體必須具備三個條件:“能夠?qū)φ_和錯誤進(jìn)行推理、判斷和機智的行動衣撬;期望他們的行為遵守道德標(biāo)準(zhǔn)乖订;對自己的行為和后果承擔(dān)道德責(zé)任【吡罚”泰勒(Charles Taylor)則認(rèn)為只有擁有五種能力的事物才可能成為道德主體:第一乍构,判斷道德上正確或錯誤的能力;第二扛点,權(quán)衡贊成和反對某些選擇的道德理據(jù)的能力哥遮;第三,依據(jù)這種權(quán)衡的結(jié)果作出決定的能力陵究;第四眠饮,擁有實現(xiàn)這些決定所需的意志和能力;第五铜邮,為自己那些未能履行義務(wù)的行為作出解釋的能力等等仪召。如前所述,當(dāng)前的人工智能體既不滿足布瑞所說的三個條件松蒜,也不擁有泰勒所說的五種能力扔茅,人類短時間內(nèi)不可能設(shè)計出來擁有人類情感和自我意識,能夠作出自由抉擇并承擔(dān)責(zé)任的人工智能體秸苗,因此召娜,智能機器不可能成為道德主體,只有擁有理性的人類才有能力進(jìn)行道德推理惊楼,才有道德行為萤晴,才有道德責(zé)任感吐句。因此擁有理性能力的人類才是真正的道德主體。
其次店读,通過賦予人工智能體以道德理論使之成為人類道德規(guī)范的承載者和執(zhí)行者的建議有一定的合理性嗦枢。
例如前面提到的拉圖爾經(jīng)常例舉的“減速帶”的例子,為了減小震動屯断,司機自然會減慢汽車的速度文虏。從后果論的角度來說,這與駕駛員接受交規(guī)教育并使交通規(guī)則內(nèi)化于心的效果相差無幾殖演。通常情況下氧秘,我們的道德教化是以人為對象,使道德理論與規(guī)范內(nèi)化于心并自覺遵守相關(guān)規(guī)則趴久⊥柘啵“自上而下”的嵌入方式則相當(dāng)于將道德物化,將本應(yīng)內(nèi)在于人心的道德規(guī)范外化至人工智能體中彼棍。人類在面對這種道德化的人工智能體時所作出的道德行為雖然并非出自內(nèi)心的善良意志灭忠,但其實際行為受到了道德規(guī)范的規(guī)整和調(diào)節(jié),達(dá)到了與傳統(tǒng)道德教化同樣的效果座硕。傳統(tǒng)的道德教化要求人們弄明白“人應(yīng)該怎樣行動才是道德的”這一問題弛作,而將道德規(guī)范嵌入人工智能體中,以調(diào)節(jié)人類的行為則為這一傳統(tǒng)問題給予了一個大異其趣的“物質(zhì)性的答案”华匾。
顯然映琳,從后果論的倫理學(xué)主張來看,評判一個行為是否道德的標(biāo)準(zhǔn)不是行為者內(nèi)心的善良意志蜘拉,而在于行為的實際效果萨西,只要行為的結(jié)果有利于大多數(shù)人的權(quán)益和幸福,這個行為就是道德的旭旭。在他們看來谎脯,要使人類遵守道德規(guī)范,除了傳統(tǒng)意義上的“道德教化”之外您机,這種“道德外化”或者“道德物化”的路徑也是一個不錯的選擇,它的原理是將傳統(tǒng)的道德規(guī)范與智能技術(shù)融合成為一體年局,使人工智能體充當(dāng)行為規(guī)范者和調(diào)整者的角色际看。這種“道德外化”的進(jìn)路與傳統(tǒng)的“道德教化”路徑的有機結(jié)合,有利于保障人類的行為符合普遍的道德原則矢否。他們認(rèn)為仲闽,這種方式有利于“人本主義”的倫理學(xué)發(fā)展為“非人本主義”的倫理學(xué)。這也與倫理學(xué)領(lǐng)域從“人類中心主義”轉(zhuǎn)向“非人類中心主義”的理論主張高度契合僵朗。
四赖欣、結(jié)語
人們普遍認(rèn)為屑彻,人類的道德與人類的理性行為是相輔相成的,道德理性通過人類的理性行為而得以體現(xiàn)顶吮,而人類的理性行為也肯定會閃爍著道德的光輝社牲。因此人們在談?wù)摰赖聲r必然會涉及擁有理性的人的行為,只有理性的人類能成為道德的主體悴了。相比之下搏恤,人工智能體不具備心靈和自由意志,如果人類將已被廣泛接受的道德原則嵌入人工智能體中湃交,在簡單和普通的情況下也許它們能遵照道德原則完成指令熟空,但是現(xiàn)實社會的實際情況是無比復(fù)雜的,即便人類自身搞莺,在一些兩難情境下也很難理性地作出抉擇息罗。智能機器無法設(shè)定自我的目的,只會按照指令來行動才沧,無法應(yīng)對復(fù)雜的現(xiàn)實情況迈喉,不能根據(jù)自己的意志去獨立地選擇其行為,不會自主選擇去做某些事情糜工,只會依靠設(shè)計者事先設(shè)計好的代碼來機械地完成指令弊添。它們僅僅是人類智力和體力的延伸。因此捌木,人工智能不可能超出所編程序規(guī)定的范圍油坝,依靠自主意識進(jìn)行獨立判斷并實施行為,不可能在實際生產(chǎn)生活中面對復(fù)雜的情況刨裆,作出道德決策澈圈。目前來說,人工智能機器究竟能發(fā)展至何種程度是不確定的帆啃。不論人工智能體將來是否跟人類一樣擁有意識和情感瞬女,是否能真正成為道德主體,我們都應(yīng)該積極防范人工智能技術(shù)可能對人類帶來的危害努潘,將人工智能技術(shù)危害的風(fēng)險降至最低诽偷,使其更好地服務(wù)于人類社會的發(fā)展。
謝師言:
“低端人口”不但會被北京淘汰疯坤,還會被上海报慕、深圳淘汰。物競天擇压怠,適者生存眠冈。
有一次,針對“低端人口”菌瘫,網(wǎng)上很是熱鬧了一陣蜗顽。相關(guān)人員和時評人各執(zhí)一詞布卡,吵得厲害。吵到后來雇盖,反而把事情的起因給忘了忿等。起因是什么?起因是北京市某地一群打工者正在被清查刊懈。但網(wǎng)上爭論的重點最后卻落到“低端人口”是不是一個侮辱性詞这弧?這次清查行動是不是在驅(qū)逐“低端人口”?
“低端人口”虚汛,其實并一個新詞匾浪,早很多年就出現(xiàn)了,指的是低端產(chǎn)業(yè)從業(yè)人員卷哩。低端產(chǎn)業(yè)則是說那些傳統(tǒng)原材料生產(chǎn)蛋辈,工業(yè)初級加工品制造行業(yè)。如果不是過度敏感将谊,故意曲解冷溶,這個詞真的無關(guān)榮辱,它只是個中性名詞而已尊浓。
而這種清查行動逞频,早些年其實一直在進(jìn)行,只是把沒它與“低端人口”掛上鉤栋齿,所以沒有這次攢人眼球苗胀。網(wǎng)民對它充滿本能的懷疑和警惕是對的,但警惕的方向卻錯了瓦堵』或者說,就算警惕了菇用,也無濟(jì)于事澜驮。表面上看,這只是政府某個部門的行為惋鸥,其實際上杂穷,卻是科學(xué)文明驅(qū)逐人類的一個開始。
這話說得有些懸乎卦绣,且聽我稍加剖析耐量。
我有一個觀點,就是我們引以為傲的文明只是一個工具而已迎卤,一個為人類集體利益最大化服務(wù)的工具拴鸵。從西方文藝復(fù)興到資產(chǎn)階級革命玷坠,他們所運用的理論武器蜗搔,同樣是為人類集體利益最大化服務(wù)的劲藐。所謂天賦人權(quán)啦,人生而平等自由啦樟凄,每個人都有追求幸福的權(quán)力啦……之所以要倡導(dǎo)這些理念聘芜,就是想把個體的人從中世紀(jì)黑暗的神權(quán)君權(quán)中解脫出來,發(fā)揮個體最大的主觀能動性缝龄,讓他們在追逐個人幸福的同時汰现,推動社會大跨步地向前,讓資本的大河盡快爆滿叔壤。而那時瞎饲,天寬地闊,個體的人帶著先進(jìn)的機器炼绘,開向無垠的殖民地嗅战,無論怎么奮斗拼搏,窮盡一生俺亮,都不會覺得舞臺太窄驮捍,空間太小。那種自己命運自己主宰的感覺真是好到爆脚曾,跟“天賦人權(quán)”的理念正是斗榫合縫东且,相輔相成。
但是本讥,我們應(yīng)該看到珊泳,理念雖然美好,卻沒有完全實現(xiàn)囤踩,人類也做不到徹底的平等自由旨椒。老天也沒有義務(wù)要降“人權(quán)”于大地。人類同大自然萬物一樣堵漱,只能“物競天擇综慎,適者生存”。
或許勤庐,以前的歷史示惊,千萬普通民眾的確發(fā)揮過巨大作用,但當(dāng)科學(xué)發(fā)展到信息時代愉镰、數(shù)據(jù)時代后米罚,草根的作用便越來越小了铡俐,一小撮精英在我們看不見的前沿喂饥,正推動社會紧帕,滾滾向前惜姐。而我們只需跟在后面售睹,遵從規(guī)則,把自己塞進(jìn)文明這架龐大的機器中程拭,做好一個簡單的角色建蹄,就可保一生衣食無憂。
小小螺絲釘动看,這個觀念曾一度深入人心尊剔,也是我們引以為傲的地方。螺絲雖小菱皆,但再大的機器也不可缺少须误,一但壞了,再大的機器也運轉(zhuǎn)不了仇轻。問題是京痢,我們真能算作螺絲釘嗎,而不是“巨無霸”上一羽可有可無的毫毛篷店?除非我們集體突然消失历造,否則隨便少一些毫羽,對那“怪獸”又有什么影響呢船庇?
更何況吭产,當(dāng)科學(xué)把我們越來越異化成物、異化成一個部件鸭轮、一根螺絲臣淤、一片毫羽時,我們的心靈窃爷、人格邑蒋、精神又將何處安放?換句話說按厘,憑籍心靈医吊、人格和精神的光芒,我們還能對這個世界發(fā)揮多大的余熱呢逮京∏涮茫“人民群眾”已沒有太多的發(fā)揮空間了,我們創(chuàng)造的財富懒棉,加在一起草描,都不如一小撮精英創(chuàng)新的科技所帶來的附加值多。我們與科技策严,已隔著神仙與凡人的距離穗慕。
并且,科技越進(jìn)步妻导,需要我們掌握的生存技能就會越少越簡單逛绵。便利的工作和生活怀各,讓我們失去了足夠的警惕:我們竟然逐漸淪為了被科技圈養(yǎng)的一群。我們只要會一些簡單的操作术浪,花少量的時間渠啤,就可以過上富裕生活。我們?nèi)徊幻靼滋砺穑萍紝⑽覀児ぷ髯兊迷胶唵危覀儽阍接斜淮鷵Q的危險份名。
北京這次的清查行動碟联,其實就是科技文明對已被機器代替的工人亮起了紅燈。連謀生的技能都被替代了僵腺,個體已失去了存在的價值鲤孵,這時候,我們還跟誰去提“天賦人權(quán)”“人生而平等自由”去辰如?很顯然普监,嶄新社會需要新的理念來支撐,只是我們后知后覺罷了琉兜。
現(xiàn)在還只是低端產(chǎn)業(yè)工種被機器替代凯正,當(dāng)越來越多的智能機器人被批量產(chǎn)生時,我們現(xiàn)有的工種豌蟋,都將可能被替代廊散。而當(dāng)機器人能夠依靠自己的智慧,根據(jù)自己的意愿去發(fā)明創(chuàng)造梧疲,去“武裝”這個世界時允睹,整個人類都要被替代。
當(dāng)所有人對推動社會進(jìn)步毫無用處時幌氮,當(dāng)所有人只能仰視機器人的鼻息混吃等死時缭受,就算機器人不發(fā)動消除人類行動,我們活著還有任何意義嗎该互?到那時米者,我們又該如何堅守自己的心靈、人格和精神宇智?到那時塘雳,我們還敢宣稱人是萬物之靈嗎?
套用馬丁·尼莫拉牧師那段引人深思的話 普筹,我們也可以這么說败明,當(dāng)科技驅(qū)逼制造業(yè)人員時,我們在充當(dāng)幫兇太防;當(dāng)科技驅(qū)逼服務(wù)業(yè)人員時妻顶,我們?nèi)詴槟静蝗仕嵩薄D敲矗萍荚偃ヲ?qū)逼管理業(yè)人員讳嘱、代替創(chuàng)新發(fā)明業(yè)人員時幔嗦,就算我們能幡然醒悟,恐怕也為時已晚沥潭。
當(dāng)然邀泉,我們不是要與科技決裂,我們已經(jīng)離不開它了钝鸽,但在可怕的預(yù)測到來之前汇恤,我們應(yīng)該可以找一條規(guī)避悲劇之途:我們不要靠低保救濟(jì)生活,不要被分批代替拔恰,我們要在任何時候都感覺是這個世界的主人因谎,每一個人仍然能靠自己的拼搏去擁有進(jìn)退自如的生活,去彰顯自己的人格和精神力量颜懊,去把那個大寫的人字财岔,重新樹立在天地之間!
寫《未來簡史》的尤瓦爾給的出路是:從直立人到智人河爹,這是人類的進(jìn)化匠璧,現(xiàn)在,是該我們靠生物工程和電子芯片咸这,進(jìn)化到“智神”的時候了患朱,讓我們的體能和智力永遠(yuǎn)不落后于最先進(jìn)的機器人,并且還可以長生不老炊苫。
這也許是行得通的裁厅,但顯然,進(jìn)級的只能是極少數(shù)財閥強權(quán)的老大和他們的家人侨艾。絕大多數(shù)人都將會像過時產(chǎn)品一樣被淘汰湮滅执虹,剩下的,會被新“智神”當(dāng)作家獸寵物圈養(yǎng)唠梨。
天賦人權(quán)也許是真的袋励,但只會賦予實力差不多的人。一旦平衡被打破当叭,并且天差地別茬故,天只會選擇賦予強者人權(quán),就像現(xiàn)在天賦予我們智人人權(quán)蚁鳖,而不是賦予猿猴和猩猩磺芭。