世界見證了生成式人工智能(AI)的驚人進(jìn)步盼玄,ChatGPT就是最著名的例子之一。為了防止這項(xiàng)技術(shù)的濫用潜腻,政界人士正在考慮對(duì)人工智能進(jìn)行監(jiān)管埃儿。然而,他們可能會(huì)忽視一個(gè)問題:人工智能可能有言論自由的權(quán)利融涣。
根據(jù)國(guó)際法童番,人類擁有不可侵犯的思想自由權(quán)利。作為其中的一部分威鹿,政府有責(zé)任創(chuàng)造一個(gè)人們可以自由思考的環(huán)境剃斧。
正如我們?cè)贑hatGPT中看到的那樣,人工智能可以幫助我們思考忽你,提供信息并為我們的問題提供答案幼东。這導(dǎo)致一些人認(rèn)為,我們自由思考的權(quán)利可能需要賦予人工智能自由發(fā)言的權(quán)利科雳。
思想自由需要言論自由
美國(guó)最近的文章筋粗、論文和書籍都表明,人工智能有言論自由的權(quán)利炸渡。
企業(yè)和人工智能系統(tǒng)一樣娜亿,不是人。然而蚌堵,美國(guó)最高法院裁定买决,政府不應(yīng)壓制企業(yè)的政治言論。這是因?yàn)榈谝恍拚附o予美國(guó)人獨(dú)立思考的權(quán)力吼畏。
美國(guó)最高法院表示督赤,自由思想要求我們聽取“多樣化和對(duì)立的來(lái)源”。美國(guó)政府告訴人們從哪里獲取信息泻蚊,將是非法使用“審查制度來(lái)控制思想”躲舌。因此,公司的言論自由被認(rèn)為創(chuàng)造了一個(gè)個(gè)人可以自由思考的環(huán)境性雄。
同樣的原則也適用于人工智能没卸。美國(guó)最高法院表示,保護(hù)言論“不取決于其來(lái)源的身份”秒旋。相反约计,保護(hù)言論的關(guān)鍵標(biāo)準(zhǔn)是,演講者迁筛,無(wú)論是個(gè)人煤蚌、公司還是人工智能,都為思想市場(chǎng)做出了貢獻(xiàn)。
人工智能和錯(cuò)誤信息
然而尉桩,不加考慮地將言論自由法應(yīng)用于人工智能可能是有害的筒占。給予人工智能言論自由的權(quán)利實(shí)際上會(huì)損害我們自由思考的能力。我們有一個(gè)術(shù)語(yǔ)蜘犁,詭辯家翰苫,用來(lái)形容那些用語(yǔ)言說服我們相信謊言的人。雖然人工智能超級(jí)士兵很危險(xiǎn)沽瘦,但人工智能超級(jí)詭辯家可能更糟糕。對(duì)付人工智能的謊言和謬論的最佳方案可能是更多的人工智能語(yǔ)音來(lái)反擊錯(cuò)誤信息农尖。
人工智能還可以利用它對(duì)人類思維的了解析恋,系統(tǒng)地攻擊讓我們的思想自由的東西。它可以控制我們的注意力盛卡,阻止我們停下來(lái)反思助隧,扭曲我們的推理,恐嚇我們并讓我們保持沉默滑沧。因此并村,我們的思維可能會(huì)被機(jī)器重塑。
這可能是一個(gè)警鐘滓技,我們需要刺激人類思維的復(fù)興哩牍。人類被描述為“認(rèn)知吝嗇鬼”,這意味著我們只在需要的時(shí)候才會(huì)真正思考令漂。一個(gè)自由說話的人工智能可以迫使我們更深入膝昆、更深思熟慮地思考什么是真實(shí)的。
然而叠必,人工智能產(chǎn)生的大量語(yǔ)言可能會(huì)對(duì)社會(huì)產(chǎn)生巨大的影響荚孵。目前,美國(guó)最高法院認(rèn)為纬朝,為了更好地傾聽其他人的聲音而讓一些人閉嘴的做法“完全違反了第一修正案”收叶。但是,為了讓人類的語(yǔ)言和思想蓬勃發(fā)展共苛,限制機(jī)器的語(yǔ)言可能是必要的判没。
對(duì)人工智能進(jìn)行監(jiān)管
言論自由法和人工智能監(jiān)管都必須考慮到它們對(duì)自由思想的影響。以歐盟的人工智能法案草案及其對(duì)ChatGPT等生成式人工智能的擬議監(jiān)管為例隅茎。
首先哆致,該法案要求公開人工智能生成的內(nèi)容。知道內(nèi)容來(lái)自人工智能患膛,而不是人摊阀,可能有助于我們更清楚地評(píng)估它——促進(jìn)自由思想。
但允許一些匿名的人工智能發(fā)言可能有助于我們的思考。如果這些言論是匿名的胞此,人工智能的所有者可能會(huì)受到較少的公眾壓力來(lái)審查合法但有爭(zhēng)議的人工智能言論臣咖。人工智能的匿名性還可以使我們根據(jù)人工智能的優(yōu)點(diǎn)來(lái)判斷它,而不是條件反射性地將其視為“機(jī)器人語(yǔ)言”漱牵。
其次夺蛇,歐盟法案要求企業(yè)設(shè)計(jì)其人工智能模型,以避免產(chǎn)生非法內(nèi)容酣胀,在這些國(guó)家刁赦,非法內(nèi)容包括仇恨言論。但這可以防止合法和非法言論的產(chǎn)生闻镶。根據(jù)一份智庫(kù)報(bào)告甚脉,歐洲的仇恨言論法已經(jīng)導(dǎo)致合法和非法的在線評(píng)論被刪除。
控股公司對(duì)其人工智能產(chǎn)品負(fù)責(zé)铆农,也可能激勵(lì)它們不必要地限制人工智能的言論牺氨。美國(guó)第230條法律保護(hù)社交媒體公司免受其用戶言論的法律責(zé)任,但可能無(wú)法保護(hù)人工智能的言論墩剖。我們可能需要新的法律來(lái)使公司免受這種壓力猴凹。
最后,該法案要求公司公布用于訓(xùn)練(改進(jìn))人工智能的受版權(quán)保護(hù)數(shù)據(jù)摘要岭皂。歐盟希望人工智能分享其圖書館記錄郊霎。這可以幫助我們?cè)u(píng)估人工智能可能存在的偏見。
然而爷绘,人類的閱讀記錄受到保護(hù)是有原因的歹篓。如果我們認(rèn)為別人知道我們讀了什么,我們可能會(huì)回避有爭(zhēng)議但可能有用的文本揉阎。同樣庄撮,披露人工智能的閱讀清單可能會(huì)迫使科技公司不要用合法但有爭(zhēng)議的材料來(lái)訓(xùn)練人工智能。這可能會(huì)限制人工智能的言論和我們的自由思想毙籽。
用技術(shù)思考
正如人文技術(shù)中心的阿扎·拉斯金所指出的那樣洞斯,新技術(shù)帶來(lái)的威脅可能要求我們發(fā)展新的權(quán)利。拉斯金解釋了計(jì)算機(jī)保存我們文字的能力如何導(dǎo)致了一種被遺忘的新權(quán)利坑赡。人工智能可能會(huì)迫使我們?cè)敿?xì)闡述和重塑我們的思想自由權(quán)利烙如。
展望未來(lái),我們需要法律學(xué)者馬克·布利茨(Marc Blitz)所說的“用技術(shù)思考的權(quán)利”——與人工智能和計(jì)算機(jī)互動(dòng)的自由毅否,利用它們?yōu)槲覀兊乃伎继峁┬畔⒀翘H欢绻窨萍紝<易罱谝环輹和H斯ぶ悄荛_發(fā)的請(qǐng)?jiān)笗兴蟮哪菢用樱斯ぶ悄鼙黄取鞍踩且纭F(tuán)結(jié)吞琐、忠誠(chéng)”,那么這種想法可能就不會(huì)是自由的然爆。
賦予人工智能言論自由的權(quán)利既會(huì)支持也會(huì)破壞我們的思想自由站粟。這表明有必要對(duì)人工智能進(jìn)行監(jiān)管。然而曾雕,如果我們想繼續(xù)掌控自己的生活奴烙,這種監(jiān)管行動(dòng)必須清楚地表明,它是如何符合我們不可侵犯的思想自由權(quán)利的剖张。