文章標題:Drag Queen vs. David Duke: Whose Tweets Are More 'Toxic'?
概括:
社交平臺如Facebook, Twitter, 和YouTube都加大投入研發(fā)自動過濾有害內容的AI,用于清理諸如歧視性言論猫缭、種族歧視言論等等爷贫。這類型的AI現(xiàn)階段主要依賴于對自然語言的分析星瘾。作者所帶領的研究團隊InternetLab對其中一款由谷歌母公司投資的Jigsaw研發(fā)的AI科技——Perspecitve進行測試,驗證其是否能識別有害內容(the toxicity of text-based content)怀泊。
團隊選取了兩個群體的推特posts作為實驗的樣本瘫寝,這兩個群體分別是變裝皇后(drag queens)和極右政治人物(far-right political figures)。實驗結果讓人吃驚:變黃皇后群體的內容被標示為“有害言論”的比例高于“極政治人物”仅讽,原因在于前者的推特用詞中經(jīng)常出現(xiàn)gay、lesbian钾挟、queer洁灵、bitch和transvertite。這些詞語被識別為“極具危害”掺出,帶相關詞語的發(fā)言也就被視為有毒言論徽千。作者指出,這個算法本身就已經(jīng)是具有偏見的汤锨。另外双抽,作者團隊 認為現(xiàn)階段AI識別有害言論的缺陷在于,這類型技術只會識別字面意思闲礼,而不會解讀文字的隱含之意牍汹。例如,在drag queens群體柬泽,“bitch”一詞是有特殊含義的柑贞,并不如字面那樣是指責別人;相比較而言聂抢,極右政治人士的推特言論會出現(xiàn)用中性詞語來發(fā)表種族歧視的言論钧嘶,AI技術卻不會把其標為有害。
基于實驗結果琳疏,作者擔心的是:如果偏見仍然內置于Perspectives及其他相似的言論過濾AI技術有决,那么少數(shù)群體的言論就會因為被視為有害,而在網(wǎng)絡上被消掉空盼,這就壓制少數(shù)群體的言論书幕。