涉種族性別歧視 竟分析黑人易犯罪
人工智能(AI)技術發展一日千里,當中「機器學習程式」(Machine Learning Algorithms,MLA)能自行學習數據規律,繼而作出準確預測,用途廣泛,但AI的運算明顯存在偏見,例如自行辨別犯罪率較高的黑人社區,惹起歧視黑人之嫌。有科學家於是研發出一款名為「監督式學習平等機會」(Equality of Opportunity in Supervised Learning)的測試法,審視MLA在作出決策時,是否涉及種族及性別歧視。
互聯網巨擘Google高級研究科學家哈爾特承認,機器學習作出的決策,對人類生活產生巨大影響,不過「AI偏見」也隨處可見,包括網上廣告平台自動為男性提供高薪行政職位的檢索結果。另外,電腦分析數據時,或得出男性拖欠銀行貸款的機會較女性大,借貸人或因此拒絕向所有男性放債,變相歧視男性。
繞運算過程 直接得出結果
芝加哥豐田技術研究所電腦科學家斯雷布羅,參與研發出「監督式學習平等機會」測試法,他形容新方法繞開MLA繁複及難以理解的運算過程,直接分析輸入的數據及運算結果,審視是否出現歧視情況,過程中避免因研究對象的敏感屬性而出現歧視。有關研究成果已在去年12月於西班牙舉行的「神經信息處理系統」(NIPS)會議中發表。由於成效良好,據報美國消費者金融保護局亦有興趣引入此方法,評估當地銀行。
學者:決策過程仍欠透明
雖然新方法有助消除AI偏見,但仍然存在不少棘手問題。研究AI的西英格蘭大學電子工程學者溫菲爾德認為,即使運用新方法,外界仍難以得知MLA決策過程,透明度顯然不足,一旦出現爭議,仍須邀請人類專家作出解釋。設菲爾德大學榮休教授夏基稱,在決定輸油管鋪設位置方面,AI可以大派用場,但至今仍未清楚它存在的偏見,利用它作出影響人類生活的決定,着實令人憂慮。■《衛報》/Digital Trends網站