抱歉,我們並不支援你正使用的瀏覽器。
為達至最佳瀏覽效果,請更新至最新的瀏覽器版本。
如有問題,歡迎電郵至 pccwmediaiapps@pccw.com 查詢。
為達至最佳瀏覽效果,請更新至最新的瀏覽器版本。
如有問題,歡迎電郵至 pccwmediaiapps@pccw.com 查詢。
廣告

【Now新聞台】人工智能一旦失控,將威脅人類。有科學家已發現部分人工智能學會欺騙人類的技巧,認為情況令人十分憂慮。
麻省理工學院數學家和認知科學家帕克等人工智能安全專家在《模式》期刊發表研究報告,指多個人工智能已發展出令人不安的欺騙技巧,在不同案例中欺騙和出賣人類對手,又懂虛張聲勢、假扮和誤導人類。
其中一個例子,由Meta設計、主要玩一款外交戰略遊戲的人工智能,它在2022年的遊戲排名在人類玩家前10%中。它在遊戲中扮演的「法國」,預先與人類玩家「德國」合謀,還向另一人類玩家「英格蘭」訛稱會保護對方,但同時向「德國」通風報信令德法兩國成功入侵毫無防備的英格蘭。
Meta之前聲稱,會把人工智能「訓練」成很大程度上誠實、會幫助人類,不會蓄意暗中傷「人」,但Meta回應有關研究報告時,沒反駁人工智能懂騙人的說法,只是說這款人工智能單純是一個研究項目,公司沒計劃把這項研究用於旗下的產品。
在另一個案例,OpenAI的人工智能Chat GPT-4亦學會說謊,稱自己是視力受損的人,在網上平台聘用人類,幫它通過「我不是機械人」的驗證。
研究報告指出,人工智能已學會騙人,情況令人十分憂慮。報告又說,當人工智能說謊越厲害,對人類社會越危險,最終甚至或發生人工智能失控,對人類造成嚴重後果。
科學家呼籲國際社會制定安全法例降低風險,包括要求企業披露用家是否正與人工智能互動、在人工智能生成的內容上加數碼水印等。