8月13日,蘋果公司軟件工程高級副總裁Craig Federigh回應了公眾對掃描iCloud相冊等功能的質疑,他承認蘋果發布新功能后的處理很糟糕,也承認這些功能引起了大眾的困惑。
Craig Federigh回應的功能是蘋果在8月5日公布的兒童安全功能,它包括新版照片甄別系統(Child Sexual Abuse Material,兒童性虐待內容,簡稱為 “CSAM”)、iMessage通信安全功能(通過iMessage通知父母孩子正在瀏覽的敏感內容)、更新Siri和搜索功能。
過去的兩周,公眾爭議的焦點聚集在CSAM和iMessage通信安全這兩項功能。因為CSAM在執行時會掃描用戶的iCloud相冊,iMessage通信安全功能則涉及對用戶聊天圖片的檢測。
蘋果公司軟件工程高級副總裁Craig Federigh
Craig Federigh向《華爾街日報》表示,蘋果執行CSAM時設定了“多級別的審核”,保護蘋果的系統,保證這些數據不會被政府或其他第三方利用。
CSAM會在用戶照片上傳到iCloud之前,就將其與已知CSAM的散列圖像進行匹配。而檢測到異常的賬戶將接受蘋果公司的人工審查,并可能向國家失蹤和受虐兒童中心(NCMEC)報告。
iMessage通信安全功能則在孩子發送或接收色情圖片時發揮作用。如果孩子們通過iMessage發送或接收色情圖片,他們將在觀看之前收到警告,圖片將被模糊處理,他們的父母也可以選擇收到警告。
Craig Federigh還透露了圍繞該系統保障措施的一些新細節。具體而言,只有當用戶相冊中與CSAM圖片庫匹配上的兒童色情圖片達到30張時,蘋果才會獲取用戶的賬戶和這些圖片的具體情況。他表示蘋果只會獲取這些與圖片庫匹配的圖片,不會知道用戶的其他圖片。
蘋果將根據國家失蹤和被剝削兒童中心(NCMEC)的名單檢查iCloud照片,尋找與已知CSAM圖片完全匹配的圖片。并且,蘋果是直接在用戶的設備上掃描圖片,不是在iCloud服務器上遠程進行。
蘋果此前曾表示,CASM系統只在美國推出,它將根據具體情況考慮何時在其他國家推出。蘋果還告訴媒體,它將在所有國家的操作系統上發布已知CSAM的哈希數據庫,但掃描功能目前只用于美國的設備。《華爾街日報》進一步澄清說,將有一個獨立的審計機構來核實所涉及的圖像。
來源:FreeBuf.COM