第二部分 重塑社會识椰,擁抱智能大未來
A Guide to Wealth and Work in the Age of Artificial Intelligence
05 機器人犯罪沪猴,誰才該負(fù)責(zé)
未來的法律
中世紀(jì)時,人們認(rèn)為動物對錯,擁有道德能力(moral agency)平夜,所以會對動物起訴酬荞。
道德行為體:必須有能力完成兩件事。
1.他們必須能感知到他們的行為后果中與道德相關(guān)的部分畅买;
2.必須有能力在行動方案之間做出選擇。
- 墨西哥石油漏油事件细睡,不只是個人是道德行為體谷羞,公司同樣需要承擔(dān)道德責(zé)任,負(fù)有刑事責(zé)任溜徙。
那么合成智能呢湃缎?
自動駕駛汽車可以為了救人而碾壓一條狗;面對一對老夫婦和過馬路的孩子如何做出選擇蠢壹;后座和前座的兩個孩子嗓违,必須殺死一個,如何做出選擇图贸。 -
人造道德行為體:計算倫理學(xué)領(lǐng)域的一些研究者蹂季,正在努力用一種“自頂向下”的方式去創(chuàng)造,通過推理去選擇和實現(xiàn)道德原則疏日。
其他人追求一種“自底向上”的策略偿洁,通過向機器學(xué)習(xí)算法展示足夠多的相關(guān)例子,來獲得答案沟优。 - 代理人:是一個授權(quán)的獨立體涕滋,在雙方協(xié)定下,代表當(dāng)事人的行為挠阁。代理人在知情的情況下代表你犯罪宾肺,你和代理人都需要承擔(dān)責(zé)任溯饵。而如果代理人在為我們服務(wù)時不知情,然后犯罪爱榕,我們不應(yīng)該對此負(fù)責(zé)瓣喊。
任何公司都可以是當(dāng)事人和代理人,而且可以作為獨立的主體被指控犯罪黔酥。
- 機器人在買咖啡途中藻三,逮捕假犯罪人的案例,說明操作機器人的人是否應(yīng)該判定為犯罪跪者。同時棵帽,用戶和生產(chǎn)機器人的公司到底哪個應(yīng)該負(fù)責(zé)人。最后可能的判決結(jié)果是渣玲,抹除機器人的記憶逗概,然后交給受損方托管12個月。由此忘衍,一系列的判例和法律體系開始誕生逾苫。
強制“失憶”,最好的懲罰枚钓?
機器人中的機器學(xué)習(xí)程序铅搓,根據(jù)訓(xùn)練集的示例(個體經(jīng)驗)來做出行為決定,所以某種情況下搀捷,人不知道下一步會采取什么措施星掰,所以不需要負(fù)責(zé)。人和公司的處置方法不同嫩舟,人和合成智能也不會相同氢烘。
你怎么會指望一家公司有良心呢,他沒有靈魂可以下地獄家厌,他沒有身體可以讓你施以暴力
對人:我們可以剝奪犯罪人的生命播玖,自由,或者追求幸福的權(quán)利饭于。
對公司:征收罰款蜀踏,讓他關(guān)門。
機器學(xué)習(xí)算法產(chǎn)生了某個問題后镰绎,為了找到源頭可能需要刪除整個數(shù)據(jù)庫脓斩,但是這個程序是花費大量的數(shù)據(jù)和資金訓(xùn)練出來的木西。
讓人造人擁有資產(chǎn)
以后合成智能可以賦予權(quán)利畴栖,也需要承擔(dān)責(zé)任。擁有資產(chǎn)的呼聲會越來越強烈八千,可用于獨立于所有者的沒收和罰款吗讶。
- 賦人造人以權(quán)利燎猛。合成智能也許會判定為人造人(artificial persons),同時帶來一系列的權(quán)利和責(zé)任。權(quán)力中最重要的是簽訂合同和擁有資產(chǎn)的權(quán)利照皆。
他們會不懈的追求我們?yōu)槠湓O(shè)定的目標(biāo)重绷,并且在和人類的競爭中勝出,而且可能僅僅是在名義上收我們控制--這種情況至少會延續(xù)到我們建立其道德和法律框架之前膜毁,有了這些框架昭卓,我們才能把他們整個為人類社會中高效的伙伴。