Deepfake是指看起來或聽起來像真的一樣的虛假視頻或音頻。曾經,只有好萊塢特效工作室和情報機構才會制作虛假音視頻,用于政治宣傳。美國中央情報局(CIA)和英國政府通信總部(GCHQ)聯合威脅研究情報組(JTRIG)就常這么干。如今,任何人都可以下載甚至制作Deepfake軟件,僅僅用閑暇時間就可以制作出幾乎假亂真的虛假視頻。
截至目前,Deepfake尚僅限被業余愛好者用于把名人頭像嫁接到色情明星的身體上,或者讓政客“說”些惡搞的言論。然而,不可否認,同樣基于簡便的操作也可以用于創建虛假恐襲警報材料,或者用嫁接的性愛視頻毀了情敵的婚禮,又或者,在投票開始前幾天放出候選人之一的虛假音視頻,打破勢均力敵的競選局面。想象空間可以很大……
Deepfake的巨大威力讓很多人坐立不安,2016年美國總統大選佛羅里達州候選人,共和黨參議員盧比奧,就曾將Deepfake與核武器相提并論。
過去,如果你想威脅美國,那你需要10艘航母、核武器,還有洲際導彈。現在,你只需要登錄我們的互聯網系統、銀行系統、電網、基礎設施網絡,甚至,你只需要具備弄出一段可以以假亂真的虛假視頻來搞亂我們的選舉就行了。這就足以讓我們的國家陷入巨大的內亂,深深削弱我們。
政客野心受挫后的故意夸大?還是說,Deepfake真的是比核武器還大的威脅?聽盧比奧的語氣,我們簡直就要走向世界末日了。但并不是每個人都認同他的看法。
MIT媒體實驗室和博克曼-克萊因中心AI項目道德與監管主任 Tim Hwang對此有自己的觀點。
像核彈一樣危險?我可不這么認為。我們看到的那些案例當然令人不安。這確實令人擔憂,也引發了很多問題,但我懷疑Deepfake是否具備很多人說的那種游戲規則改變者的能量。
Deepfake的起效機制
老話說,眼見為實,但真實情況卻是“信念即所見”:人類總會去找尋支持自己信念的那些信息而忽視其他。
人類的這種傾向性可以賦予作惡者巨大的能量。故意造謠再偽裝成“真相”大肆散布的假情報,或者說所謂的“假新聞”,我們已經見識過了。等事實核查員開始辟謠的時候,往往已為時過晚,比如卷進了希拉里的“#披薩門”假新聞事件。
Deepfake通過生成性對抗網絡(GAN)來利用這一人類認知偏向。GAN中兩個機器學習(ML)模型一決高下,一個在數據集上訓練后生成虛假音視頻,另一個則試圖檢測這些偽造物。造假ML模型持續生成假視頻,直到作為對抗的另一個ML模型再也不能檢測出來。訓練數據集越大,造假ML模型越容易做出可信Deepfake。這也是為什么第一代Deepfake中常會有前總統和好萊塢名人出鏡的原因——有太多公開視頻錄影可供訓練造假ML模型了。
GAN上當然不僅僅有虛假色情視頻和讓政客口吐污言的惡搞,還有很多其他用戶在做些別的。GAN是“無監督式學習”,也就是ML模型自己教自己的學習模式上的一大躍進,在提升自動駕駛汽車識別行人和車輛的能力,讓Alexa和Siri之類語音數字助手更健談上潛力無窮。有人預言,GAN代表著“AI創造力”的崛起。
普通用戶下載個FakeApp就可以開啟自己的Deepfake之旅了。這個App用起來不像記事本那么超級簡單,但稍微懂點極客知識的用戶應該都沒什么問題。
也就是說,造謠的途徑真的太多,用“打地鼠”的方式對付deepfake永遠撲不滅,按下一個冒一個。即便是在當前,也有很多很廉價的方法可以用來蒙騙和影響公眾輿論,甚至都用不到深度學習或機器學習出馬。
舉個例子,帶路黨常用的“看圖/視頻說話”法:拍/截一段一大幫人街頭暴揍某人的視頻,然后配上一段虛假的事件描述,就比如說宣稱打人者是外地人吧;根本用不到什么花哨的ML算法,只需虛假描述看起來可信,視頻符合描述,假新聞便炮制成功,后續影響不可估量。
如何檢測Deepfake
Deepfake檢測是個難題。很業余的Deepfake當然肉眼可辨,機器也能發現諸如沒有眨眼動作或陰影位置不對之類的證據。但生成Deepfake的GAN一直都在進化,很快我們就不得不依賴數字鑒證來檢測了——如果我們還有能力檢測的話。
Deepfake影響甚大,其檢測又如此之難,以致美國國防部高級研究計劃局(DARPA)都在砸錢找尋鑒定視頻真實性的更好方法。不過,因為GAN本身可以被訓練學會如何規避此類鑒證檢測,鑒證專家能不能贏下這場鑒證攻防戰還沒個定數。
理論上而言,只要你給了GAN我們當前掌握的所有鑒證技術,它就能繞過所有這些技術。我們不知道這里面存不存在學習極限問題,目前還不清楚。
有批評家警告稱,如果我們無法檢測虛假視頻,很快我們就會被迫懷疑一切所見所聞。互聯網如今已滲入我們生活的方方面面,無法相信自己的眼睛耳朵會導致“真理的消亡”。不僅僅是我們的政治體制信仰會受到沖擊,長此以往,就連什么才是客觀現實我們都不敢相信了。如果我們連事情真假都不能達成一致,還怎么辯論政策議題?
但也有人對此持不同看法,認為我們還沒到達分不清真假的那個閾值。
最后,圍繞Deepfake的種種喧囂或許恰是我們擁有的最大保護。知道視頻可以偽造,Deepfake的破壞力就沒那么大了。