8月13日,蘋果公司軟件工程高級副總裁Craig Federigh回應(yīng)了公眾對掃描iCloud相冊等功能的質(zhì)疑,他承認(rèn)蘋果發(fā)布新功能后的處理很糟糕,也承認(rèn)這些功能引起了大眾的困惑。
Craig Federigh回應(yīng)的功能是蘋果在8月5日公布的兒童安全功能,它包括新版照片甄別系統(tǒng)(Child Sexual Abuse Material,兒童性虐待內(nèi)容,簡稱為 “CSAM”)、iMessage通信安全功能(通過iMessage通知父母孩子正在瀏覽的敏感內(nèi)容)、更新Siri和搜索功能。
過去的兩周,公眾爭議的焦點(diǎn)聚集在CSAM和iMessage通信安全這兩項(xiàng)功能。因?yàn)?strong>CSAM在執(zhí)行時(shí)會(huì)掃描用戶的iCloud相冊,iMessage通信安全功能則涉及對用戶聊天圖片的檢測。
蘋果公司軟件工程高級副總裁Craig Federigh
Craig Federigh向《華爾街日報(bào)》表示,蘋果執(zhí)行CSAM時(shí)設(shè)定了“多級別的審核”,保護(hù)蘋果的系統(tǒng),保證這些數(shù)據(jù)不會(huì)被政府或其他第三方利用。
CSAM會(huì)在用戶照片上傳到iCloud之前,就將其與已知CSAM的散列圖像進(jìn)行匹配。而檢測到異常的賬戶將接受蘋果公司的人工審查,并可能向國家失蹤和受虐兒童中心(NCMEC)報(bào)告。
iMessage通信安全功能則在孩子發(fā)送或接收色情圖片時(shí)發(fā)揮作用。如果孩子們通過iMessage發(fā)送或接收色情圖片,他們將在觀看之前收到警告,圖片將被模糊處理,他們的父母也可以選擇收到警告。
Craig Federigh還透露了圍繞該系統(tǒng)保障措施的一些新細(xì)節(jié)。具體而言,只有當(dāng)用戶相冊中與CSAM圖片庫匹配上的兒童色情圖片達(dá)到30張時(shí),蘋果才會(huì)獲取用戶的賬戶和這些圖片的具體情況。他表示蘋果只會(huì)獲取這些與圖片庫匹配的圖片,不會(huì)知道用戶的其他圖片。
蘋果將根據(jù)國家失蹤和被剝削兒童中心(NCMEC)的名單檢查iCloud照片,尋找與已知CSAM圖片完全匹配的圖片。并且,蘋果是直接在用戶的設(shè)備上掃描圖片,不是在iCloud服務(wù)器上遠(yuǎn)程進(jìn)行。
蘋果此前曾表示,CASM系統(tǒng)只在美國推出,它將根據(jù)具體情況考慮何時(shí)在其他國家推出。蘋果還告訴媒體,它將在所有國家的操作系統(tǒng)上發(fā)布已知CSAM的哈希數(shù)據(jù)庫,但掃描功能目前只用于美國的設(shè)備。《華爾街日報(bào)》進(jìn)一步澄清說,將有一個(gè)獨(dú)立的審計(jì)機(jī)構(gòu)來核實(shí)所涉及的圖像。
來源:FreeBuf.COM