压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

既然機(jī)器能夠?qū)W習(xí),那么它們可以遺忘嗎?

關(guān)于AI系統(tǒng)的隱私問題日益增長,因此研究人員們正在探究他們是否可以只移除AI中的敏感信息,而不必從頭開始訓(xùn)練系統(tǒng)。

各行各業(yè)的公司都采用了機(jī)器學(xué)習(xí)來分析人們的欲望、喜好和面部信息。一些研究者如今提出了一個(gè)不同的問題:我們怎么讓機(jī)器“忘記”?

計(jì)算機(jī)科學(xué)中有一個(gè)新生領(lǐng)域叫作模型遺忘(Machine Unlearning),它研究的是誘發(fā)AI程序選擇性失憶的方法,目標(biāo)是在不影響性能的情況下,刪除機(jī)器學(xué)習(xí)系統(tǒng)中特定人員或數(shù)據(jù)點(diǎn)的所有痕跡。

如果能夠?qū)崿F(xiàn)的話,這個(gè)概念能夠讓人們更好控制他們的數(shù)據(jù)以及數(shù)據(jù)帶來的價(jià)值。雖然用戶們可以讓公司刪除他們的個(gè)人數(shù)據(jù),但他們一般不知道自己的信息已被用于幫助調(diào)整或訓(xùn)練了哪些算法。模型遺忘可以讓人們在撤回自己數(shù)據(jù)的同時(shí),避免公司再從他們的數(shù)據(jù)中獲利。

雖然對于那些后悔過在網(wǎng)上分享內(nèi)容的人來說很直觀,但模型遺忘這一概念需要計(jì)算機(jī)科學(xué)中一些新的想法。由于相對于程序員而言,算法能夠更快解決問題,因此大公司愿意花費(fèi)數(shù)百萬美元訓(xùn)練機(jī)器學(xué)習(xí)算法來識別人臉或?qū)φ掌M(jìn)排名。但一旦進(jìn)行訓(xùn)練,機(jī)器學(xué)習(xí)系統(tǒng)就難以被改變,甚至難以被人們理解。

傳統(tǒng)的消除特定數(shù)據(jù)點(diǎn)影響的方法,是從零開始重新建立一個(gè)系統(tǒng),其中的代價(jià)相當(dāng)高昂?!斑@項(xiàng)研究的目標(biāo)是找到一個(gè)中間地帶,”研究模型遺忘的賓夕法尼亞大學(xué)教授Aaron Roth表示,“當(dāng)有人請求刪除個(gè)人信息時(shí),我們是否可以消除他的數(shù)據(jù)帶來的所有影響,并避免付出從頭開始訓(xùn)練系統(tǒng)的成本?”

研究模型遺忘的工作動(dòng)機(jī)部分,源于人們越來越關(guān)注人工智能可能侵犯隱私的多種方式。一直以來,全世界的數(shù)據(jù)監(jiān)管機(jī)構(gòu)都被賦予了強(qiáng)制要求公司刪除非法獲取的信息的權(quán)力。如果后悔給出了隱私信息,如歐盟和加州等地區(qū)的公民,甚至有權(quán)要求公司刪除他們的信息。最近,美國和歐洲的監(jiān)管機(jī)構(gòu)進(jìn)一步要求AI系統(tǒng)擁有者刪除基于敏感數(shù)據(jù)訓(xùn)練的AI系統(tǒng)。

去年,英國的數(shù)據(jù)監(jiān)管機(jī)構(gòu)發(fā)出警告,一些機(jī)器學(xué)習(xí)軟件可能會(huì)受到如數(shù)據(jù)刪除權(quán)等通用數(shù)據(jù)保護(hù)條例(GDPR)的約束,因?yàn)锳I系統(tǒng)可能包含了個(gè)人數(shù)據(jù)。安全研究者已經(jīng)證明算法有時(shí)會(huì)被迫泄露出創(chuàng)建時(shí)使用的敏感信息。今年早些時(shí)候,美國聯(lián)邦貿(mào)易委員會(huì)(FTC)迫使面部識別初創(chuàng)公司Paravision刪除一系列通過不當(dāng)方式取得的人臉圖像以及用它們訓(xùn)練過的機(jī)器學(xué)習(xí)算法。FTC委員Rohit Chopra稱贊這種新的執(zhí)法策略是一種迫使違反了數(shù)據(jù)規(guī)則的公司“喪失其欺騙成果”的方式。

模型遺忘這一小領(lǐng)域的研究正在努力解決監(jiān)管方式轉(zhuǎn)變帶來的實(shí)際數(shù)學(xué)問題。研究人員們已經(jīng)證明他們可以在特定條件下讓機(jī)器學(xué)習(xí)算法產(chǎn)生遺忘,但這個(gè)技術(shù)目前遠(yuǎn)未達(dá)到大規(guī)模實(shí)際應(yīng)用的水準(zhǔn)?!斑@對于一個(gè)年輕的領(lǐng)域來說很常見,我們渴望做的事與現(xiàn)在知道如何做的事存在著差距,”Roth說。

多倫多大學(xué)和威斯康星大學(xué)麥迪遜分校的研究者在2019年提出了一個(gè)很有前景的方法。他們將新機(jī)器學(xué)習(xí)項(xiàng)目的源數(shù)據(jù)分成多個(gè)部分,在將結(jié)果組合到最終的機(jī)器學(xué)習(xí)模型前單獨(dú)處理每個(gè)部分。如果之后需要以往一個(gè)數(shù)據(jù)點(diǎn),只需要重新處理原始輸入數(shù)據(jù)的一小部分。該方法被證明適用于網(wǎng)購數(shù)據(jù)以及一百多萬張照片的數(shù)據(jù)集。

但最近,Roth和來自賓大、哈佛和斯坦福的合作者證明了這種方法存在缺陷。無論是偶然還是來自惡意行為,如果以特定順序提交刪除請求,模型遺忘系統(tǒng)就會(huì)崩潰。他們同時(shí)也展示了如何緩解該問題。

滑鐵盧大學(xué)的教授Gautam Kamath也在進(jìn)行模型遺忘的研究。他表示,上面提到的問題的發(fā)現(xiàn)和解決只是“讓模型遺忘從實(shí)驗(yàn)室走到實(shí)際應(yīng)用”這一過程中許多懸而未決的問題中的一例。他的研究小組一直在探索,讓一個(gè)系統(tǒng)先后遺忘多個(gè)數(shù)據(jù)點(diǎn)會(huì)對其準(zhǔn)確性造成多大程度的下降。
Kamath同樣對公司如何證明或監(jiān)管機(jī)構(gòu)如何檢查一個(gè)系統(tǒng)是否的確忘記了它應(yīng)該遺忘的東西感興趣?!案杏X這個(gè)方面還有有一段路要走,但或許最終他們會(huì)由審計(jì)人員來處理這種事情?!?/p>

隨著FTC和其他機(jī)構(gòu)對算法影響力的研究加深,調(diào)查模型遺忘的監(jiān)管理由可能會(huì)增加。Reuben Binns,一位研究數(shù)據(jù)保護(hù)的牛津大學(xué)教授表示,近年來,“個(gè)人應(yīng)該對其數(shù)據(jù)的使用與成果有一些發(fā)言權(quán)”這一觀點(diǎn)在歐美的呼聲越來越高。

在科技企業(yè)能真正運(yùn)用模型遺忘前,還需要精湛的技術(shù)來幫助人們在算法面前更好掌控自己的數(shù)據(jù)。即便到那時(shí)候,這種遺忘技術(shù)可能依舊不會(huì)對人工智能時(shí)代的隱私風(fēng)險(xiǎn)產(chǎn)生多大改變。

差分隱私(Differential Privacy)這一巧妙的技術(shù),為系統(tǒng)能夠泄露的個(gè)人信息設(shè)置了數(shù)學(xué)界限。蘋果、谷歌和微軟均推崇這項(xiàng)技術(shù),但它的使用相對較少,而且依舊存在很多隱私危險(xiǎn)。

Binns表示,雖然它的確是有用的,但“在其他情況下,它更像是一家公司為了顯示它的創(chuàng)新而做的事情”。他懷疑模型遺忘可能會(huì)被證明展示技術(shù)敏銳度的傾向更強(qiáng),不太可能帶來數(shù)據(jù)保護(hù)的重大轉(zhuǎn)變。同時(shí),即便機(jī)器學(xué)會(huì)了遺忘,用戶在分享數(shù)據(jù)時(shí),也必須對接收方保持警惕。

譯文聲明
本文是翻譯文章,文章原作者Tom Simonite,文章來源:
原文地址:https://www.wired.com/story/machines-can-learn-can-they-unlearn/

譯文僅供參考,具體內(nèi)容表達(dá)以及含義原文為準(zhǔn)

來源:安全客

上一篇:工信部通報(bào)下架67款侵害用戶權(quán)益APP

下一篇:加強(qiáng)關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)

站长统计