压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

既然機器能夠學習,那么它們可以遺忘嗎?

關于AI系統的隱私問題日益增長,因此研究人員們正在探究他們是否可以只移除AI中的敏感信息,而不必從頭開始訓練系統。

各行各業的公司都采用了機器學習來分析人們的欲望、喜好和面部信息。一些研究者如今提出了一個不同的問題:我們怎么讓機器“忘記”?

計算機科學中有一個新生領域叫作模型遺忘(Machine Unlearning),它研究的是誘發AI程序選擇性失憶的方法,目標是在不影響性能的情況下,刪除機器學習系統中特定人員或數據點的所有痕跡。

如果能夠實現的話,這個概念能夠讓人們更好控制他們的數據以及數據帶來的價值。雖然用戶們可以讓公司刪除他們的個人數據,但他們一般不知道自己的信息已被用于幫助調整或訓練了哪些算法。模型遺忘可以讓人們在撤回自己數據的同時,避免公司再從他們的數據中獲利。

雖然對于那些后悔過在網上分享內容的人來說很直觀,但模型遺忘這一概念需要計算機科學中一些新的想法。由于相對于程序員而言,算法能夠更快解決問題,因此大公司愿意花費數百萬美元訓練機器學習算法來識別人臉或對照片進排名。但一旦進行訓練,機器學習系統就難以被改變,甚至難以被人們理解。

傳統的消除特定數據點影響的方法,是從零開始重新建立一個系統,其中的代價相當高昂。“這項研究的目標是找到一個中間地帶,”研究模型遺忘的賓夕法尼亞大學教授Aaron Roth表示,“當有人請求刪除個人信息時,我們是否可以消除他的數據帶來的所有影響,并避免付出從頭開始訓練系統的成本?”

研究模型遺忘的工作動機部分,源于人們越來越關注人工智能可能侵犯隱私的多種方式。一直以來,全世界的數據監管機構都被賦予了強制要求公司刪除非法獲取的信息的權力。如果后悔給出了隱私信息,如歐盟和加州等地區的公民,甚至有權要求公司刪除他們的信息。最近,美國和歐洲的監管機構進一步要求AI系統擁有者刪除基于敏感數據訓練的AI系統。

去年,英國的數據監管機構發出警告,一些機器學習軟件可能會受到如數據刪除權等通用數據保護條例(GDPR)的約束,因為AI系統可能包含了個人數據。安全研究者已經證明算法有時會被迫泄露出創建時使用的敏感信息。今年早些時候,美國聯邦貿易委員會(FTC)迫使面部識別初創公司Paravision刪除一系列通過不當方式取得的人臉圖像以及用它們訓練過的機器學習算法。FTC委員Rohit Chopra稱贊這種新的執法策略是一種迫使違反了數據規則的公司“喪失其欺騙成果”的方式。

模型遺忘這一小領域的研究正在努力解決監管方式轉變帶來的實際數學問題。研究人員們已經證明他們可以在特定條件下讓機器學習算法產生遺忘,但這個技術目前遠未達到大規模實際應用的水準。“這對于一個年輕的領域來說很常見,我們渴望做的事與現在知道如何做的事存在著差距,”Roth說。

多倫多大學和威斯康星大學麥迪遜分校的研究者在2019年提出了一個很有前景的方法。他們將新機器學習項目的源數據分成多個部分,在將結果組合到最終的機器學習模型前單獨處理每個部分。如果之后需要以往一個數據點,只需要重新處理原始輸入數據的一小部分。該方法被證明適用于網購數據以及一百多萬張照片的數據集。

但最近,Roth和來自賓大、哈佛和斯坦福的合作者證明了這種方法存在缺陷。無論是偶然還是來自惡意行為,如果以特定順序提交刪除請求,模型遺忘系統就會崩潰。他們同時也展示了如何緩解該問題。

滑鐵盧大學的教授Gautam Kamath也在進行模型遺忘的研究。他表示,上面提到的問題的發現和解決只是“讓模型遺忘從實驗室走到實際應用”這一過程中許多懸而未決的問題中的一例。他的研究小組一直在探索,讓一個系統先后遺忘多個數據點會對其準確性造成多大程度的下降。
Kamath同樣對公司如何證明或監管機構如何檢查一個系統是否的確忘記了它應該遺忘的東西感興趣。“感覺這個方面還有有一段路要走,但或許最終他們會由審計人員來處理這種事情。”

隨著FTC和其他機構對算法影響力的研究加深,調查模型遺忘的監管理由可能會增加。Reuben Binns,一位研究數據保護的牛津大學教授表示,近年來,“個人應該對其數據的使用與成果有一些發言權”這一觀點在歐美的呼聲越來越高。

在科技企業能真正運用模型遺忘前,還需要精湛的技術來幫助人們在算法面前更好掌控自己的數據。即便到那時候,這種遺忘技術可能依舊不會對人工智能時代的隱私風險產生多大改變。

差分隱私(Differential Privacy)這一巧妙的技術,為系統能夠泄露的個人信息設置了數學界限。蘋果、谷歌和微軟均推崇這項技術,但它的使用相對較少,而且依舊存在很多隱私危險。

Binns表示,雖然它的確是有用的,但“在其他情況下,它更像是一家公司為了顯示它的創新而做的事情”。他懷疑模型遺忘可能會被證明展示技術敏銳度的傾向更強,不太可能帶來數據保護的重大轉變。同時,即便機器學會了遺忘,用戶在分享數據時,也必須對接收方保持警惕。

譯文聲明
本文是翻譯文章,文章原作者Tom Simonite,文章來源:
原文地址:https://www.wired.com/story/machines-can-learn-can-they-unlearn/

譯文僅供參考,具體內容表達以及含義原文為準

來源:安全客

上一篇:工信部通報下架67款侵害用戶權益APP

下一篇:加強關鍵信息基礎設施安全保護