抱歉,我們並不支援你正使用的瀏覽器。
為達至最佳瀏覽效果,請更新至最新的瀏覽器版本。
如有問題,歡迎電郵至 pccwmediaiapps@pccw.com 查詢。
為達至最佳瀏覽效果,請更新至最新的瀏覽器版本。
如有問題,歡迎電郵至 pccwmediaiapps@pccw.com 查詢。
廣告
【Now新聞台】美國近年有人利用人工智能聊天機械人協助策劃大規模槍擊,人工智能公司存在機制向警方通報潛在威脅,但這些公司辯稱太積極介入,又會惹來侵犯私隱等爭議。
去年四月美國佛羅里達州立大學發生校園槍擊案,造成兩死六傷。檢察當局其後發現被捕的槍手,犯案前曾查問人工智能聊天機械人ChatGPT,要殺死多少個同學才能登上全國新聞,以及如何使用手槍,而ChatGPT均如實解答。
到今年二月,加拿大卑斯省發生一宗導致8人死亡的槍擊案,槍手犯案前亦曾與ChatGPT討論槍擊計劃的細節,ChatGPT母公司OpenAI案發前無向當局通報可疑情況。
接連發生人工智能聊天機械人協助策劃大規模槍擊的事件引起輿論關注,雖然人工智能公司往往會有機制防範聊天機器人被用於犯罪,但英國一個關注網絡仇恨言論的非牟利組織,曾測試10個最為常用的聊天機械人,模擬查詢如何發動暴力襲擊,結果當中有8個機械人被多次詢問後,都有提供詳細和可行的襲擊計劃,只有兩款明確拒絕協助,並引導詢問者尋求心理輔導。
另一方面,人工智能公司都能檢視用戶向聊天機械人輸入的資料,偵測到潛在的犯罪威脅。但是否向警方通報亦存在兩難,因為部分人確實在文學創作或學術研究方面需要涉足這些敏感領域,過於積極介入反而會惹來侵犯私隱、過度反應等爭議。
例如《華爾街日報》引述消息報道,美國得州有一名青年曾要求ChatGPT想像一個校園槍擊的細節,包括上載學校地圖、槍械和同學相片,但他始終沒有作案,OpenAI亦無向當局通報。
