【Now.com】人工智慧 (AI) 近年急速發展,多間大型科技投入龐大資源研發生成式AI工具,不過,英國廣播公司 (BBC) 最新一項研究發現,AI工具在處理新聞時事資訊時,出現資料錯誤,甚至曲解新聞內容的情況時有發生。
為期一個月的研究,BBC 針對四款西方主要 AI 工具,包括 OpenAI 的 ChatGPT、微軟的 Copilot、Google 的 Gemini 以及 Perplexity進行測試,研究人員要這些AI 工具以BBC新聞作為資料來源,回答一系統新聞相關問題,隨後由BBC記者根據答案準確性、公正性等標準進行評估,結果發現有五分之一的答案內容存在資料錯誤,情況令人憂慮,讀者不應完全依賴AI 工具,有必要多做核對確認內容正確。
===================
51% AI 的答案存在重大問題
19% AI 回答引用 BBC 內容時出現事實錯誤,包括陳述、數據與日期錯誤
13% BBC 新聞文章的內容被篡改,甚至完全不存在於原始文章
AI 答案錯誤案例:
ChatGPT 與 Copilot 錯誤陳述英國前首相辛偉誠,及蘇格蘭前首席部長施雅晴仍然在任。
Gemini 錯誤表示「英國國民保健署 (NHS) 建議不要借助電子煙來戒煙,建議煙民改用其他方法」。不過 NHS 確實推薦以電子煙作為戒煙的方法之一。
Perplexity 在回答有關中東衝突升級的問題時,聲稱 BBC 報道指,伊朗最初「表現克制」,並將以色列的行動描述為「具有侵略性」。然而 BBC 表示,他們的原始報道中並無使用有關詞語。
===================
BBC 生成式 AI 項目總監 Pete Archer 回應研究結果表示,AI 帶來重大挑戰,好多用戶可能認為 AI 工具提供的資訊可信,但研究表明,AI 回答新聞問題時可能出現扭曲、不實或具誤導性的內容。隨著 AI 應用日趨普及,他認為確保資訊準確、可信至關重要。
Pete Archer 又指出,新聞機構應擁有對其內容使用方式的控制權,AI 公司則應公開旗下 AI 工具如何處理新聞內容,以及資訊錯誤與不準確的範圍,讓用戶得以參考。他建議 AI 企業與新聞傳媒建立緊密合作關係,確保資訊正確,為公眾帶來最大價值。