人們對于人工智能技術有著層出不窮的想象力:它會不會自演化到與我們?yōu)閿常炕蛘咛魬?zhàn)人類的獨尊地位瓤漏?抑或最恐怖:為壞人利用?Brian Patrick Green是圣克拉拉大學應用倫理學工程學院馬庫拉中心校園倫理項目主任助理讶泰,他對科學馒闷、神學、技術和倫理都很感興趣归榕。他寫過很多關于遺傳人類學尸红、認知科學、生物學刹泄、倫理學外里、醫(yī)學倫理、超人等勁爆話題特石,著有自己的博客“心靈倫理”盅蝗,特別專注于人工智能鄰域。
今天大家就和小編一起走進他姆蘸,探討一下人工智能倫理的話題风科。
什么是人工智能?
人工智能乞旦,英文縮寫是“AI”,就是人為建造的類仿人類智力活動的系統(tǒng)题山。AI將寶貴的人力和創(chuàng)造力從一些不必要的繁瑣活動中解放了出來兰粉。舉個栗子,現(xiàn)在大火的機器學習就是AI的一種顶瞳。我們只要教會計算機必要的程序算法玖姑,數(shù)學公式,機器就能在我們的監(jiān)視下為我們干活慨菱,例如自動駕駛和語音識別焰络,有沒有很棒棒(*^_^*)。不光自動駕駛和語音識別符喝,AI在處理大數(shù)據(jù)和建立復雜模型方面闪彼,有更牛掰的技術應用。AI潛力無限,需要我們的不斷探索和開發(fā)
AI為何如此高效畏腕?
人工智能使我們更有效率缴川。例如早期電腦ENIAC,這種可編程計算器描馅,可以“秒殺”你用小時解決的問題“芽洌現(xiàn)在沒有人會認為數(shù)學計算器是“人工智能”,但從某種意義上說它們也算是铭污,因為它們可以幫你做數(shù)學題恋日。正如計算器在計算上比人類更高效,各種形式的人工智能在其他任務上更加高效嘹狞。舉個栗子岂膳,大多數(shù)車禍都是人禍——如果駕駛可以自動進行,就可以避免人為錯誤刁绒,每年可以省下劇額損失闷营,避免人員傷亡。人工智能還可以幫助我們解決迄今為止難以解決的問題知市。例如傻盟,就像小編剛才的栗子,非常大的數(shù)據(jù)集可能包含復雜模型嫂丙,這一回明顯AI比大腦靠譜娘赴。總而言之跟啤,人工智能正在風口诽表,因為它推動人類社會進步,是資本的新寵兒隅肥。
AI可以解決什么樣的問題竿奏?有沒有“后遺癥”?
AI的未來很難預測腥放。目前泛啸,機器學習主導的推薦引擎,會判斷我們可能想要購買什么產品秃症,或者什么樣的廣告對我們最有影響力候址。機器學習也可以比人類反應更快,因此在預防黑客攻擊或金融詐騙方面大顯神通种柑。在未來岗仑,人工智能可能會實施更好地個性化教育,就像今天的適應性測試聚请。還可能幫助解決問題例如如何提高能源效率荠雕,如何節(jié)省資金來保護環(huán)境,如何提高醫(yī)療保健的效率和預準性,如何在省錢的同時改善健康狀況舞虱。甚至AI可以想出如何改進法律和政府服務欢际,或者改進道德教育的方法。對于每一個需要解決的問題矾兜,人工智能都有用途损趋。
同時,每一枚硬幣都有兩面椅寺。人工智能如果用于黑客和戰(zhàn)爭浑槽,就會帶來無盡的痛苦。它可以用來欺騙人民返帕,用錯誤的道德教育人民桐玻。它可以用來探索和利用人們最大的恐懼,使極權政府能夠以超出人類歷史的方式壓迫人民荆萤。這些都是理論上的危險镊靴,但至少有兩個危險是可以肯定的。首先链韭,人工智能需要巨大的計算能力偏竟,因此需要能源,這可能導致環(huán)境退化敞峭;其次踊谋,人工智能無疑會導致社會兩級分化,貧富分化加劇旋讹,同時造成大量失業(yè)殖蚕。
人工智能的機器人會自我覺醒嗎?成為“類人類”沉迹?
這是一個有爭議的話題睦疫,可能永遠沒有答案。人類想建立地球上其他生物的自我意識都非常困難鞭呕,更不要說AI這種像天外來客的東東笼痛。建立非生物智能的自我意識短期內不會發(fā)生。但我們幾乎可以肯定琅拌,在未來十年左右,人們可以制造強人工智能摘刑,使我們誤以為他們是有自我意識的进宝。“圖靈測試”基于這樣一種觀念枷恕,即有朝一日計算機能欺騙人類相信它是另一個人——這是人工智能開發(fā)者的終極目標党晋。
當我們最終無法區(qū)分人類和AI時,是否應該改變我們對AI的看法?辯證來看未玻,如果我們接納AI灾而,可能會導致自己的麻木不仁,甚至可能錯誤地認為它應該被視為一個人扳剿,因為它的超強模仿讓我們不知道是否在某種程度上它達到了自覺旁趟。另一方面,Brian認為這樣一種“不真實”的人根本就不是一個自覺的人庇绽,正是因為它是被設計的锡搜。模擬不是真實的東西。它不是活的瞧掺,它不會代謝耕餐,它可能會被打開和關閉等等。
最后辟狈,我們沒有能力精確地定義生命和心靈的意義肠缔,所以在我們不知道它們真正是什么的時候,試圖模仿這些特性哼转,將是一種可笑的努力明未。
神學家、倫理學家到底在擔心什么释簿?
對于AI亚隅,最大的擔心,不是它覺醒后是否殺了我們(腦補各種科幻電影)庶溶,或質疑人類的獨特性煮纵,而是這非常強大的技術將為哪種人所用--善還是惡。現(xiàn)在機器學習用在賺錢上(這本身就在道德上有問題)偏螺,其他應用程序正在增長行疏。假設,如果一個國家進行軍事模擬套像,告訴他用野蠻的戰(zhàn)術贏得戰(zhàn)爭是最有效的方式酿联,那么他們就很有可能使用這種戰(zhàn)術,就像人工智能所指示的那樣夺巩。如果不這樣做似乎不合邏輯贞让,因為不那樣做效率會降低。但是作為人柳譬,我們不應該把有效率看成就是有道德喳张。做正確的事情有時是“低效”的(不管效率可能意味著什么)。尊重人類的尊嚴美澳,有時確實帶來低效销部。然而摸航,我們應該做正確的事,就是尊重人的尊嚴舅桩,因為那些道德價值高于效率酱虎。當我們的工具使我們生產力提高時,我們需要停下來問問自己擂涛,我們想做的事情是否真的是對的读串。
如果我們的欲望是邪惡的,那么他們會造成巨大的傷害歼指,有效實施人類滅絕(隨小編回憶一下電影“星球大戰(zhàn)”爹土,如果我們決定玩核戰(zhàn)爭,或生物踩身,或納米技術等“游戲”)胀茵。即使不滅絕,惡意使用人工智能也可能會造成巨大的危害(例如挟阻,電網超載導致全國范圍內的停電琼娘,或導致所有自動駕駛汽車同時墜毀)。僅僅偶然的計算錯誤也會造成巨大的傷害附鸽,例如脱拼,如果機器算法被設定種族偏見的數(shù)據(jù),那么它將輸出種族偏見的結果(黑色幽默的現(xiàn)實)坷备。
神學家的傳統(tǒng)是以道德來評判技術熄浓。純粹效率絕不是唯一的優(yōu)先,他們認為優(yōu)先事項應該始終是愛上帝和愛同胞手足省撑。如果人工智能可能會促進這一點(比如提醒我們祈禱赌蔑,或幫助減少貧困),那么這是一件好事竟秫,值得我們去追求娃惯。如果它用于相反目的(例如分散我們的信仰,或利用別人)肥败,那么應該仔細監(jiān)管甚至取締趾浅。例如,核武器就應該永遠不在人工智能控制之下馒稍,這種AI的使用應該被禁止皿哨。
最終,人工智能給了我們更好的技術——更好的工具來實現(xiàn)自我纽谒。更深層次的問題就變成了“我們想要什么往史?”甚至是“我們應該想要什么?”如果我們追求邪惡佛舱,那么我們將百倍邪惡椎例。如果我們想要善良,那么通過勤奮的追求请祖,我們也許能實現(xiàn)它订歪。在圣經中,上帝將生和死肆捕,祝福和詛咒擺在我們面前刷晋。如果我們想活下去,我們就應該選擇向死而生慎陵。