計算機視覺領域世界三大頂會之一的CVPR 2021論文接收結果于近日出爐,接收率約為27.3%,競爭十分激烈,騰訊安全研究團隊Blade Team以其在AI安全領域的突破性發現成功入選。
此次騰訊Blade Team被收錄的論文題為《MagDR:Mask-guided Detection and Reconstruction for Defending Deepfakes》,首次公開了一種能夠消除對抗樣本對Deepfake的干擾攻擊的方法,該方法為防止深度偽造能力的濫用提出了創新思考。同時,該發現也能用于提升AI圖像處理的安全性。
論文鏈接:https://arxiv.org/abs/2103.14211
Tencent Blade Team由騰訊安全平臺部成立,專注于人工智能、移動互聯網、物聯網、云虛擬化等前沿技術領域的前瞻安全技術研究,目前已向Apple、Amazon、Google、Microsoft、Adobe等諸多國際知名公司報告并協助修復了200多個安全漏洞。
近年來,“AI變臉”特效風靡全球,近期爆紅的“螞蟻呀嘿”再次掀起體驗和討論的熱潮,這種源自人工智能生成對抗網絡的新技術,能夠利用深度學習技術識別并交換圖片或視頻中的原始人像,不僅制作過程簡單,而且逼真度驚人,幾乎能達到以假亂真的效果。
Deepfake作為一項技術工具,有廣泛的應用空間。語音合成能讓計算機用人類的聲音說出上百種語言,視頻合成能讓《速度與激情》里的Paul Walker復生,但若被濫用,也將帶來巨大的風險,對身份識別和社會信任帶來挑戰。
那么,既然能用技術“造假”,能否用更強有力的技術去對抗?此前行業有研究顯示,在源圖像中加入人眼無法感知的對抗攻擊,就能夠通過對抗噪聲來干擾Deepfake圖像的生成結果,也就是說,通過在原圖中加入人眼看不到的噪聲,換臉模型就無法生成正確人臉了。
但這一對抗手段近期被證明仍有風險。騰訊Blade Team提出了一個全新的MagDR(mask-guided detection and reconstruction)的二階段框架。其核心思想在于使用一些非監督性指標,對對抗樣本在Deepfake中所生成的結果進行敏感性的評估,并且利用人臉屬性區域作為輔助信息以及通過對最優的防御方法進行搜索組合的方式對圖片進行檢測和重建,以期望能夠達到凈化原圖并保持Deepfake輸出真實性的目的。
論文顯示,騰訊安全研究員選取了Deepfake中較為重要的三個任務進行攻防實驗,分別為換臉、人臉屬性修改以及表情變換。給原圖增加噪聲后,所產生的對抗樣本盡管對原圖進行了修改,但修改的程度明顯低于人眼可察覺的水平,而Deepfake模型產生的深度偽造視頻卻已經崩壞,無法以假亂真,其對Deepfake帶來影響是災難性的。
但當改為通過MagDR框架進行處理時,情況發生了變化。該模型首先對視頻中的對抗攻擊擾動進行檢測,提醒Deepfake的使用者,所用的圖片或視頻是大概率存在對抗攻擊的情況的,然后通過重建視頻模型,能夠有效地將攻擊者注入的對抗擾動進行消除,從而實現了Deepfake模型相關系統的正常使用。
MagDR框架不僅能夠消除對抗擾動帶來的破壞性影響,同時還保留了原圖的各種像素細節,進而保證了重建后的Deepfake結果與原圖結果一致。
這一發現表明,原先業界主流的主動性防御的方法(Deepfake對抗擾動)不再可靠,為了避免社交網絡上人臉照片被惡意使用,還需要找到更佳的Deepfake防御方案。
同時,騰訊Blade Team研究員也在此發現的基礎上提出了安全建議,比如可以生成特定的對抗擾動,使得產生出的崩壞效果受到限制,更加真實以繞過目前MagDR的檢測,或者說產生更難以被重建模塊消除的魯棒性對抗擾動。
研究員同時提出,希望大家可以對MagDR的組件或者整體結構進行調整與創新,以其作為新思路的創新點,產生出更為強大的防御框架,從而防止Deepfake的惡意濫用,進一步地加強用照片或視頻的安全性。技術在不斷進步,只有“用AI對抗AI”,才能讓技術的安全應用走得更遠。