美國各地警方要確認嫌疑人身份,通常會把閉路電視拍得的面容影像,與資料庫內的疑犯檔案照作比對。美國喬治城大學法律中心去年4月的研究顯示,當地警方的面容識別軟件資料庫內有較多非裔美國人照片,而且無法準確辨認黑人面孔,令黑人容易無端惹禍。研究人工智能技術的專家認為,面容識別系統依靠人類輸入的資料運作,研發團隊應改善效能,避免黑人社群受針對。
為了解面容識別軟件是否存在種族偏見,喬治城大學法律中心技術員弗蘭克爾及專家加維,向全美逾100個警察部門索取近1萬頁公共記錄作研究。他們發現警方識別系統的資料庫中,黑人照片比例遠高於其他族裔,而系統本身亦不擅長辨認不同黑人的面孔,造成種族偏見。事實上,此前微軟的動作感應裝置Kinnect亦曾無法辨別黑人面孔,Google的相片應用程式甚至誤認黑人為猩猩。
專家:要擴大資料庫採樣數
研究面容識別系統的專家菲利普斯指出,識別系統出現的偏見,其實視乎系統資料庫的樣本多寡,例如東亞地區製作的識別軟件,便較其他地區更能準確辨認東亞人面孔。因此,如果資料庫的照片樣本數量夠多、採樣廣泛,便能更準確辨認各族裔人士。他建議設計團隊多考慮系統對應的社群,從而使軟件運作更公平。他們又認為,軟件工程師及警方並非故意令資料庫帶有種族偏見,但應提高運作透明度,令公眾釋疑。 ■《衛報》