BBC 研究揭 AI 工具處理新聞資訊常有錯誤

廣告

【Now.com】人工智慧 (AI) 近年急速發展,多間大型科技投入龐大資源研發生成式AI工具,不過,英國廣播公司 (BBC) 最新一項研究發現,AI工具在處理新聞時事資訊時,出現資料錯誤,甚至曲解新聞內容的情況時有發生。

為期一個月的研究,BBC 針對四款西方主要 AI 工具,包括 OpenAI 的 ChatGPT、微軟的 Copilot、Google 的 Gemini 以及 Perplexity進行測試,研究人員要這些AI 工具以BBC新聞作為資料來源,回答一系統新聞相關問題,隨後由BBC記者根據答案準確性、公正性等標準進行評估,結果發現有五分之一的答案內容存在資料錯誤,情況令人憂慮,讀者不應完全依賴AI 工具,有必要多做核對確認內容正確。

51% AI 的答案存在重大問題
19% AI 回答引用 BBC 內容時出現事實錯誤,包括陳述、數據與日期錯誤
13% BBC 新聞文章的內容被篡改,甚至完全不存在於原始文章

AI 答案錯誤案例:
ChatGPT 與 Copilot 錯誤陳述英國前首相辛偉誠,及蘇格蘭前首席部長施雅晴仍然在任。
Gemini 錯誤表示「英國國民保健署 (NHS) 建議不要借助電子煙來戒煙,建議煙民改用其他方法」。不過 NHS 確實推薦以電子煙作為戒煙的方法之一。
Perplexity 在回答有關中東衝突升級的問題時,聲稱 BBC 報道指,伊朗最初「表現克制」,並將以色列的行動描述為「具有侵略性」。然而 BBC 表示,他們的原始報道中並無使用有關詞語,違背公正報道原則。

BBC 生成式 AI 項目總監 Pete Archer 回應研究結果表示,AI 帶來重大挑戰,好多用戶可能認為 AI 工具提供的資訊可信,但研究表明,AI 回答新聞問題時可能出現扭曲、不實或具誤導性的內容。隨著 AI 應用日趨普及,他認為確保資訊準確、可信至關重要。

Pete Archer 又指出,新聞機構應擁有對其內容使用方式的控制權,AI 公司則應公開旗下 AI 工具如何處理新聞內容,以及資訊錯誤與不準確的範圍,讓用戶得以參考。他建議 AI 企業與新聞傳媒建立緊密合作關係,確保資訊正確,為公眾帶來最大價值。

內容屬影片或文章作者個人意見,不代表本網站立場。本網站無法核實上述內容,包括但不限於文字、聲音及影像的真實性、準確性和原創性。

廣告