【Now新聞台】美國蘋果公司計劃在美國用戶的iPhone安裝新的掃瞄軟件,用來檢查用戶有否收藏兒童色情圖片,有關措施引發私隱保護爭議。
蘋果公司指,新系統運用新的密碼學和人工智能技術,在用戶使用iCloud Photos儲存功能時,透過比對影像資料庫的方式,辨別出兒童色情圖片。
一旦偵測到這類圖片達到一定數量時,就會啟動圖像檢視機制,檢查是否違法。一旦認為違法,會通報給私營的非牟利組織、國家失蹤及被剝削兒童中心,有需要時會通知執法部門。
不過,蘋果未有說明相關圖像數量是達到多少才會啟動機制。另外,偵測軟件只能辨別圖像,不能夠辨別影像。
這個功能將在下一代iOS系統推出,蘋果公司指,有關安排只針對美國用戶,強調系統出錯的比率每年低過一萬億分之一;用戶帳號遭停用時,可透過機制上訴。
蘋果又說,iPhone的加密系統不會受到這項偵測功能影響,iPhone用戶不用iCloud Photos儲存圖片的話,偵測系統就不會啟動。
蘋果公司一直強調保護用戶私隱,但有關保護兒童免受性侵的這個新系統,被外界視為蘋果軟化立場的舉動。
有私隱及安全問題專家擔心,蘋果的新系統可改用作政治或其他用途,包括調查恐怖襲擊或反政府示威,憂慮其他國家會向蘋果提出檢查用戶手機資料的要求,變相形成監控手機使用者。