諾貝爾物理學獎得主霍金日前在英國《獨立報》撰文,呼籲公眾關注人工智能(AI)發展可能帶來災難。他以尊尼特普最新電影《超越潛能》為例,指人工智能可能是「人類史上最後一宗大事件」,專家應及早準備及研究方案,防止人工智能進化失控危及人類。
文章由霍金與另外3名著名物理學家及人工智能專家署名,指出近年人工智能在史無前例的龐大投資和相關理論日漸成熟下發展迅速,諸如自動駕駛汽車、語音助理Siri等,並相信未來數十年發展更一日千里,「成功創造真正人工智能,將是人類史上最大事件」。
不過假如人類不懂得避免箇中風險,人工智能也可能是人類末路。文章說,短期內人工智能可能用於自動武器系統,聯合國已倡導條例禁止這類武器;中期而言,人工智能發展則可能改變經濟形態,帶來龐大財富和嚴重不均。
尊尼特普電影預言「超越潛能」
長遠而言,人工智能發展空間更是大得無法想像,更可能發生像人工智能先驅古德提出的「智能大爆炸」-超越人類的機器能夠設計更好的機器,最終令人工智能遠遠拋離人類智能,「這將會觸發(科幻小說家)溫格提出的『技術奇異點』,或尊尼特普在戲中提出的『超越潛能』。」
文章表示,人工智能在未來的影響,就視乎大眾能不能控制它。作者認為,目前科學家並未對人工智能危機有足夠準備,情況就像明知比我們先進的外星人將於幾十年後來到地球,卻只是白白呆等一樣,呼籲學界應立即行動,研究如何避免人工智能的風險。
■《獨立報》/《每日郵報》
|