logo 首頁 > 文匯報 > 國際 > 正文

Deepfake仿真講話 恐成操控選舉手段

2018-07-03

近期網上出現一種高度仿真合成影片,透過模擬真實人物說話時的唇形、表情以至面部肌肉活動,可以製作成幾可亂真的講話片段。由於這種影片利用了人面識別和人工智能的深度學習(deep learning)技術,因此也被稱為「Deepfake」(深度學習的deep和造假的fake結合而成)。美國政界擔心,終有一日個別外國勢力或會利用Deepfake技術,散播虛假資訊,從而干預或操控美國以至其他西方國家的選舉。

合成假聲假動作 冒女星色情片

Deepfake的製作原理聽起來非常簡單,只需向電腦輸入演算法,然後提供大量個別人物的影像和聲音樣本,程式便會自動分析樣本特點,學會如何模仿相關人物的面部表情、肢體語言、聲線和音調變化,只要樣本夠多,便可製作出該人物用合成聲音講話的虛假片段。

Deepfake技術至今主要被網民用來製作虛假的女星色情影片,或者搞笑片段。不過美國參議院情報委員會共和黨成員魯比奧擔心,有朝一日這種技術會被敵對國家用來損害美國利益。他舉例指,個別外國情報機構或可製作虛假影片,捏造美國政客發表種族歧視言論或受賄,也可捏造美軍士兵濫殺海外平民,形容Deepfake有如「影像模式的假新聞」,可以在選舉期間製造混亂和不穩。

達特茅斯學院電子法證專家法里德估計,接下來的中期選舉和兩年後的大選,很可能出現Deepfake政客片段。他擔心Deepfake會導致難分真假的新時代,並可能產生反效果,今後個別有心人可能把真片段說成假的,以達到某些政治目的。 ■美聯社

讀文匯報PDF版面

新聞排行
圖集
視頻