
隨着無人駕駛技術日漸普及,學者開始關注相關道德爭議,尤其是當無人車發生無可避免引致人命傷亡的車禍時,人工智能(AI)應該如何決定撞向哪些人?來自美國、加拿大和法國的科學家前年在網上發佈名為「道德機器」的全球問卷調查,詢問回答者一旦遇到車禍時,應優先避開哪些人,結果發現不同地區回答者的選擇差異甚大,反映人類根本難以就涉及人命事故的處理方式,為AI設定單一標準。研究報告昨日在《自然》期刊發表。
研究人員由前年6月起,發佈10種語言的問卷,18個月內共有來自117個國家或地區、逾200萬名網民回答。問卷要求回答者模擬自己是司機,並處於即將發生車禍的情況,要他們選擇應該先拯救同車乘客,抑或避開無辜途人;如果汽車無可避免要撞到途人,他們又會選擇優先避開哪些對象。結果顯示回答者普遍最傾向避開嬰兒、兒童和孕婦,罪犯和寵物的優先次序則排最後。
拉丁美洲屬意先救女性
參與研究的法國圖盧茲大學經濟學系教授博納豐指出,調查綜合出人類面對車禍時普遍同意的3大原則,分別是「盡量拯救人類而非其他動物的生命」、「盡量拯救最多人命」及「盡量拯救兒童」,但即使有了這3大原則,不同地區的人對人命先後次序的差異仍非常大。例如在法語區和拉丁美洲地區,人們通常傾向先拯救女性和身形標準的人士,英國人則較傾向不採取任何特殊行動。
領導研究的美國麻省理工學院(MIT)博士後研究員阿瓦德坦言,在車禍拯救對象的問題中,任何選擇均可能引起問題,科學家只期望了解公眾觀感,協助政府和企業為自動車制訂規例。
不過研究人員承認,網上調查回答者屬自願性質,故結果或會跟駕駛者應對實際情況時有出入。另外,若把決定犧牲對象的主觀選擇,寫進實質規範,恐有把人類分成不同等級之嫌。德國去年已在自動車指引上,表明不得要求人工智能(AI)按照人類的年齡、性別和身體特徵等給予差別待遇。 ■綜合報道