10月24日,在GeekPwn2016嘉年華硅谷站的比賽現(xiàn)場,來自全球頂尖科技巨頭OpenAI的專家Ian Goodfellow與谷歌Brain(谷歌大腦)的專家Alexey Kurakin合力在GeekPwn的舞臺上演繹了一場黑客與人工智能間的精彩博弈。
此次GeekPwn黑客嘉年華突破性地首次將人工智能Pwn引進(jìn)比賽規(guī)則,并特設(shè)上海&硅谷兩個分賽場,分別邀請到眾多海內(nèi)外網(wǎng)絡(luò)安全領(lǐng)域的資深專家,展開了一場對人工智能安全性的深入探討。
難敵對抗性圖像的“愚弄” 機(jī)器視覺也有弱點(diǎn)
在GeekPwn硅谷站的現(xiàn)場,Ian Goodfellow和Alexey Kurakin僅在一張圖片上加入了人眼無法察覺的干擾因素,就成功瞞過了“機(jī)器之眼”,令機(jī)器視覺做出錯誤的判斷最終將圖像判定無誤。
人工智能作為現(xiàn)代科學(xué)最大的進(jìn)步之一,成功改變了計(jì)算機(jī)“看見”世界的方式。機(jī)器視覺更是被應(yīng)用到無人駕駛、安全監(jiān)控等重要領(lǐng)域。眼下他們已經(jīng)注意到這項(xiàng)新技術(shù)存有一些致命弱點(diǎn)。
Ian Goodfellow和Alexey Kurakin表示一些經(jīng)過“特殊加工”的圖像將變成“對抗性圖像”令機(jī)器視覺作出誤判,正是目前機(jī)器識別最重要安全隱患之一。就如兩位專家現(xiàn)場演示的效果那樣,機(jī)器視覺算法的阿喀琉斯之踵就在于它們的準(zhǔn)確性能輕易地被一些微擾因素所干擾,而這些因素對于人類來說卻非常容易排除。
畢業(yè)于斯坦福,專注于數(shù)據(jù)挖掘和人工智能研究者Clarence Chio在極棒上海站分享了他的研究成果,現(xiàn)在的大部分機(jī)器學(xué)習(xí)系統(tǒng)只關(guān)注到應(yīng)用程序的準(zhǔn)確率,卻忽略了機(jī)器學(xué)習(xí)系統(tǒng)的安全性。他在此次GeekPwn嘉年華上海站的現(xiàn)場演示了如何使用一個DEEP-PWNING的框架成功欺騙一個圖像識別系統(tǒng)。
創(chuàng)辦三年以來,上百位安全黑客在GeekPwn的舞臺上聲名大噪。秉承著負(fù)責(zé)任的漏洞披露原則,GeekPwn以人才和技術(shù)為導(dǎo)向,揭露了上百個具有安全漏洞并反饋給廠商進(jìn)行產(chǎn)品升級。從智能硬件到人工智能,GeekPwn從未停止對安全的探索。