【Now新聞台】社交網站Facebook近年被指監管不力,令用戶資料外洩和助長假新聞及不當內容傳播。公司在各方的壓力下,已採取了不少措施補救。
《衛報》報道,Facebook最新公布在過去三個月利用一個自動辨識軟件,刪除了870萬張兒童色情圖片。
今次是Facebook首度公開旗下有軟件能自動辨識,同時包含兒童和裸體兩項元素的圖片。公司的全球安全主管表示,軟件協助審查團隊區分有問題內容的緩急輕重,令他們能更有效率地移除兒童色情圖片。
公司同時透露,他們有同類軟件識別企圖誘拐和性侵犯未成年人士的用戶,並正研究把這項技術,應用在旗下的圖片社交平台Instagram。
不過這種機器學習軟件並非完美,不少新聞機構和廣告客戶在過去一年,都曾投訴Facebook錯誤刪除他們的帖文,Facebook承認保障兒童安全的系統的確有可能出錯,但用戶可以申訴。