压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

Deepfake:一款與核武器同樣危險(xiǎn)的軟件工具

Deepfake是指看起來或聽起來像真的一樣的虛假視頻或音頻。曾經(jīng),只有好萊塢特效工作室和情報(bào)機(jī)構(gòu)才會(huì)制作虛假音視頻,用于政治宣傳。美國中央情報(bào)局(CIA)和英國政府通信總部(GCHQ)聯(lián)合威脅研究情報(bào)組(JTRIG)就常這么干。如今,任何人都可以下載甚至制作Deepfake軟件,僅僅用閑暇時(shí)間就可以制作出幾乎假亂真的虛假視頻。

截至目前,Deepfake尚僅限被業(yè)余愛好者用于把名人頭像嫁接到色情明星的身體上,或者讓政客“說”些惡搞的言論。然而,不可否認(rèn),同樣基于簡便的操作也可以用于創(chuàng)建虛假恐襲警報(bào)材料,或者用嫁接的性愛視頻毀了情敵的婚禮,又或者,在投票開始前幾天放出候選人之一的虛假音視頻,打破勢(shì)均力敵的競(jìng)選局面。想象空間可以很大……

Deepfake的巨大威力讓很多人坐立不安,2016年美國總統(tǒng)大選佛羅里達(dá)州候選人,共和黨參議員盧比奧,就曾將Deepfake與核武器相提并論。

過去,如果你想威脅美國,那你需要10艘航母、核武器,還有洲際導(dǎo)彈。現(xiàn)在,你只需要登錄我們的互聯(lián)網(wǎng)系統(tǒng)、銀行系統(tǒng)、電網(wǎng)、基礎(chǔ)設(shè)施網(wǎng)絡(luò),甚至,你只需要具備弄出一段可以以假亂真的虛假視頻來搞亂我們的選舉就行了。這就足以讓我們的國家陷入巨大的內(nèi)亂,深深削弱我們。

政客野心受挫后的故意夸大?還是說,Deepfake真的是比核武器還大的威脅?聽盧比奧的語氣,我們簡直就要走向世界末日了。但并不是每個(gè)人都認(rèn)同他的看法。

MIT媒體實(shí)驗(yàn)室和博克曼-克萊因中心AI項(xiàng)目道德與監(jiān)管主任 Tim Hwang對(duì)此有自己的觀點(diǎn)。

像核彈一樣危險(xiǎn)?我可不這么認(rèn)為。我們看到的那些案例當(dāng)然令人不安。這確實(shí)令人擔(dān)憂,也引發(fā)了很多問題,但我懷疑Deepfake是否具備很多人說的那種游戲規(guī)則改變者的能量。

Deepfake的起效機(jī)制

老話說,眼見為實(shí),但真實(shí)情況卻是“信念即所見”:人類總會(huì)去找尋支持自己信念的那些信息而忽視其他。

人類的這種傾向性可以賦予作惡者巨大的能量。故意造謠再偽裝成“真相”大肆散布的假情報(bào),或者說所謂的“假新聞”,我們已經(jīng)見識(shí)過了。等事實(shí)核查員開始辟謠的時(shí)候,往往已為時(shí)過晚,比如卷進(jìn)了希拉里的“#披薩門”假新聞事件。

Deepfake通過生成性對(duì)抗網(wǎng)絡(luò)(GAN)來利用這一人類認(rèn)知偏向。GAN中兩個(gè)機(jī)器學(xué)習(xí)(ML)模型一決高下,一個(gè)在數(shù)據(jù)集上訓(xùn)練后生成虛假音視頻,另一個(gè)則試圖檢測(cè)這些偽造物。造假M(fèi)L模型持續(xù)生成假視頻,直到作為對(duì)抗的另一個(gè)ML模型再也不能檢測(cè)出來。訓(xùn)練數(shù)據(jù)集越大,造假M(fèi)L模型越容易做出可信Deepfake。這也是為什么第一代Deepfake中常會(huì)有前總統(tǒng)和好萊塢名人出鏡的原因——有太多公開視頻錄影可供訓(xùn)練造假M(fèi)L模型了。

GAN上當(dāng)然不僅僅有虛假色情視頻和讓政客口吐污言的惡搞,還有很多其他用戶在做些別的。GAN是“無監(jiān)督式學(xué)習(xí)”,也就是ML模型自己教自己的學(xué)習(xí)模式上的一大躍進(jìn),在提升自動(dòng)駕駛汽車識(shí)別行人和車輛的能力,讓Alexa和Siri之類語音數(shù)字助手更健談上潛力無窮。有人預(yù)言,GAN代表著“AI創(chuàng)造力”的崛起。

普通用戶下載個(gè)FakeApp就可以開啟自己的Deepfake之旅了。這個(gè)App用起來不像記事本那么超級(jí)簡單,但稍微懂點(diǎn)極客知識(shí)的用戶應(yīng)該都沒什么問題。

也就是說,造謠的途徑真的太多,用“打地鼠”的方式對(duì)付deepfake永遠(yuǎn)撲不滅,按下一個(gè)冒一個(gè)。即便是在當(dāng)前,也有很多很廉價(jià)的方法可以用來蒙騙和影響公眾輿論,甚至都用不到深度學(xué)習(xí)或機(jī)器學(xué)習(xí)出馬。

舉個(gè)例子,帶路黨常用的“看圖/視頻說話”法:拍/截一段一大幫人街頭暴揍某人的視頻,然后配上一段虛假的事件描述,就比如說宣稱打人者是外地人吧;根本用不到什么花哨的ML算法,只需虛假描述看起來可信,視頻符合描述,假新聞便炮制成功,后續(xù)影響不可估量。

如何檢測(cè)Deepfake

Deepfake檢測(cè)是個(gè)難題。很業(yè)余的Deepfake當(dāng)然肉眼可辨,機(jī)器也能發(fā)現(xiàn)諸如沒有眨眼動(dòng)作或陰影位置不對(duì)之類的證據(jù)。但生成Deepfake的GAN一直都在進(jìn)化,很快我們就不得不依賴數(shù)字鑒證來檢測(cè)了——如果我們還有能力檢測(cè)的話。

Deepfake影響甚大,其檢測(cè)又如此之難,以致美國國防部高級(jí)研究計(jì)劃局(DARPA)都在砸錢找尋鑒定視頻真實(shí)性的更好方法。不過,因?yàn)镚AN本身可以被訓(xùn)練學(xué)會(huì)如何規(guī)避此類鑒證檢測(cè),鑒證專家能不能贏下這場(chǎng)鑒證攻防戰(zhàn)還沒個(gè)定數(shù)。

理論上而言,只要你給了GAN我們當(dāng)前掌握的所有鑒證技術(shù),它就能繞過所有這些技術(shù)。我們不知道這里面存不存在學(xué)習(xí)極限問題,目前還不清楚。

有批評(píng)家警告稱,如果我們無法檢測(cè)虛假視頻,很快我們就會(huì)被迫懷疑一切所見所聞。互聯(lián)網(wǎng)如今已滲入我們生活的方方面面,無法相信自己的眼睛耳朵會(huì)導(dǎo)致“真理的消亡”。不僅僅是我們的政治體制信仰會(huì)受到?jīng)_擊,長此以往,就連什么才是客觀現(xiàn)實(shí)我們都不敢相信了。如果我們連事情真假都不能達(dá)成一致,還怎么辯論政策議題?

但也有人對(duì)此持不同看法,認(rèn)為我們還沒到達(dá)分不清真假的那個(gè)閾值。

最后,圍繞Deepfake的種種喧囂或許恰是我們擁有的最大保護(hù)。知道視頻可以偽造,Deepfake的破壞力就沒那么大了。

上一篇:招聘安全主管時(shí)的“三不要”和“五應(yīng)該”

下一篇:錢包、智能合約、交易所都不安全 區(qū)塊鏈安全由其最弱一環(huán)決定