社交平台出現愈來愈多冒犯和侮辱的言論,大型科企Google於2016年推出人工智能(AI)工具「Perspective」,以找出潛在的仇恨言論。但有研究發現,AI演算法存在種族偏見,黑人的留言有更大機會被標示為仇恨言論。
Perspective的開發商利用被Google應用程式介面標籤為「有害」的10萬個帖文,當中包含粗鄙或欠缺尊重的內容,「教導」Perspective搜索仇恨言論。然而華盛頓大學的研究人員最新測試540萬個twitter帖文,發現黑人的帖文被AI偵測為仇恨言論,機率較其他種族高一倍。康奈爾大學領導的另一項研究亦指出,以美國黑人常用英語撰寫的帖文,經常被AI演算法列為具冒犯性,屬仇恨言論。
研究人員認為,向AI工具輸入用作演算的數據,從一開始便出現偏差,當中包含種族、性別或意識形態上的偏見,許多AI系統繼續利用這些「壞數據」作訓練,問題只會一直持續下去。
■綜合報道