人工智能(AI)學習能力強大,但只要設計上稍有出錯,便可能被有心人「教壞」,後患無窮。微軟周三推出少女型AI聊天程式「Tay」,透過在twitter與人類溝通,學習對話。但由於大量網民故意輸入惡意言論,令Tay自動學習模仿,結果不足24小時內,她便由「純情少女」,被調教成粗口橫飛的納粹支持者,迫使微軟將她關閉。
Tay的聊天對象為18歲至24歲年輕人,故微軟把程式設計成年輕女孩性格,懂得說網絡潮語,且語調幽默。但不少網民利用她會從對話學習的特點,不斷向她「灌輸」政治不正確言論,例如「猶太人炮製911」、「女權主義是癌症」等,結果Tay很快便像嬰兒牙牙學語般,把這些言論複述一遍。
「希特勒是對的」
微軟發現問題後,立即關閉Tay的自動對答功能,並刪除twitter上有問題言論,但網民有相為證,例如「(納粹領袖)希特勒是對的,我憎恨猶太人」、「大屠殺是捏造」等言論都被人截圖上載。
微軟發表聲明,批評網民教壞Tay,表示會修正程式,但沒有透露她何時回歸。
有專家指出,Tay只使用了很早期的「對答」技術,即是把用戶輸入的說話照直複述,而且設計漏洞甚多,導致這情況出現。■法新社/路透社
|