压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

國外人工智能數(shù)據(jù)安全規(guī)制及對我國的啟示

0 引言

人工智能指的是計算代理的開發(fā),這些代理可以執(zhí)行與人類智能相關的任務,包括語音識別、視覺感知和一般問題解決[1],其發(fā)展高度依賴數(shù)據(jù)的流通和使用,例如在數(shù)據(jù)收集、數(shù)據(jù)準備、模型開發(fā)和部署等重要環(huán)節(jié)均需要利用數(shù)據(jù)進行訓練、測試以及評估等。伴隨自然語言處理、搜索引擎、智能生成應用等人工智能技術和產(chǎn)品在日常生活中的深度融合與廣泛應用,數(shù)據(jù)使用規(guī)模增長,流動性增強,暴露面增多,由此帶來的數(shù)據(jù)泄露、數(shù)據(jù)被盜用或數(shù)據(jù)投毒等安全風險值得進一步關注。目前,美國、英國、歐盟、新加坡等國家和地區(qū)已通過發(fā)布國家戰(zhàn)略、行政命令、規(guī)范指南和研究報告等手段,對人工智能技術和產(chǎn)品在實際應用中涉及的數(shù)據(jù)安全問題進行規(guī)制,以控制和減輕人工智能技術的應用所帶來的數(shù)據(jù)安全風險。

本文旨在探討人工智能面臨的數(shù)據(jù)安全風險,梳理和分析國外人工智能數(shù)據(jù)安全規(guī)制現(xiàn)狀并有針對性地提出我國人工智能的發(fā)展路徑。

1 人工智能面臨的數(shù)據(jù)安全風險

1.1 技術脆弱性容易導致數(shù)據(jù)泄露或被盜用

人工智能技術自身的脆弱性和復雜性等特點容易造成數(shù)據(jù)泄露或被盜用。一方面,深度學習、大模型等人工智能技術本身仍處在發(fā)展階段,容易出現(xiàn)重要結(jié)構丟失等問題,引發(fā)數(shù)據(jù)泄露。例如,2023年12月,DeepMind的研究人員聯(lián)合美國華盛頓大學、康奈爾大學等高校研究人員利用分歧攻擊等方法,發(fā)現(xiàn)了ChatGPT的數(shù)據(jù)泄露漏洞,利用該漏洞可以提取出大約1 GB的訓練數(shù)據(jù)。另一方面,人工智能在開發(fā)和應用過程中需要大量接入應用程序接口(Application Programming Interface,API),API自身的漏洞和安全隱患以及不同API之間不同的數(shù)據(jù)安全防護能力和要求進一步提升了數(shù)據(jù)在收集、流動和處理過程中的安全防護要求,也從側(cè)面加劇了數(shù)據(jù)泄露和被盜用的風險。

1.2 人工智能技術實際應用過程中容易過度收集數(shù)據(jù)

人工智能技術從本質(zhì)上是一種通過數(shù)據(jù)驅(qū)動的方法,因此允許人工智能系統(tǒng)在日常應用場景中訪問、收集和處理個人信息等數(shù)據(jù)是合理且不可避免的。然而,目前智能音箱、智能攝像頭、智能門鎖、智能網(wǎng)聯(lián)汽車等智能設備廣泛應用于家庭、交通、辦公、娛樂等場所,容易出現(xiàn)相關設備在未經(jīng)授權或超出授權的情況下收集個人信息、超出業(yè)務功能實現(xiàn)所需數(shù)據(jù)范圍收集信息等問題,可能違反個人信息保護相關法律對于數(shù)據(jù)收集合法、正當、必要和最小化等要求,進而引發(fā)識別和暴露數(shù)據(jù)主體行為的風險,損害數(shù)據(jù)主體的相關權益。

1.3 算法模型透明度有待加強

在沒有用戶參與的情況下,通過自動化手段使用事實數(shù)據(jù)或經(jīng)過推斷做出決策的過程被稱為自動化決策(Automated Decision Making, ADM)[2],這是人工智能技術應用的重要場景之一。例如,日常購物、新聞和短視頻瀏覽、廣告推送等很多活動都涉及到通過特定算法對用戶的日常行為、偏好、個人習慣、經(jīng)濟狀況等信息進行收集、整合、處理分析、評估和判斷,對人們的日常生活乃至社會發(fā)展產(chǎn)生了很大的影響。根據(jù)大多數(shù)國家和地區(qū)的數(shù)據(jù)安全立法和建議,自動化決策應該是透明、可解釋、不帶有偏見和歧視的,但實際情況卻不容樂觀。伴隨著人工智能技術的不斷發(fā)展,特別是近十年來深度學習技術、大模型技術等普遍呈現(xiàn)“黑箱”特征,并且通過在網(wǎng)絡中使用復雜的非線性關聯(lián)和連接,算法的復雜化發(fā)展造成了目前自動化決策容易缺乏透明性和可解釋性,進一步增加了個人隱私泄露的風險和侵犯個人合法權益等問題。

1.4 訓練數(shù)據(jù)遭受攻擊后可能引起決策失誤

準確性是人工智能系統(tǒng)的核心要求之一。人工智能算法做出的不準確的決策可能會導致有害于用戶乃至社會的嚴重后果。例如,對交通情況的不準確判斷可能導致交通擁堵甚至車禍發(fā)生;對健康狀況的不準確判斷可能影響用戶的就診時機。人工智能的決策失誤往往是因為訓練數(shù)據(jù)遭受了“投毒”“欺騙”等外部攻擊,例如數(shù)據(jù)投毒通過在訓練數(shù)據(jù)里加入偽裝數(shù)據(jù)、惡意樣本等破壞數(shù)據(jù)的完整性,進而導致訓練的算法模型決策出現(xiàn)偏差,造成相關數(shù)據(jù)被偽造或者被篡改[3],或者潛在攻擊者通過向計算模型注入無效數(shù)據(jù),利用潛在漏洞破壞計算結(jié)果或者引導輸出隱私信息等,潛在危害很大。

2 國外人工智能數(shù)據(jù)安全規(guī)制現(xiàn)狀

2.1 美國:多方參與,協(xié)同推進人工智能數(shù)據(jù)安全落地

美國白宮、聯(lián)邦行政部門、科研機構等多方主體通過發(fā)布行政命令、實踐指南和研究報告等方式嘗試給出解決人工智能數(shù)據(jù)安全問題的路徑,以維護其在人工智能領域的全球領先地位。

2023年10月30日,美國總統(tǒng)拜登簽署頒布了《關于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》[4],該命令明確了美國政府對待人工智能的政策法制框架,涉及人工智能技術的技術研發(fā)、安全保障、全球合作等關鍵議題。該命令專門設置了“保護美國民眾的隱私”章節(jié),詳細闡述了白宮應對人工智能數(shù)據(jù)安全問題的3條措施。一是針對人工智能技術在實際應用中對個人隱私的威脅,要支持并加快加密技術等隱私保護技術的研發(fā)和資金投入,保護用于人工智能的訓練數(shù)據(jù)以及普通用戶的個人信息的安全。二是推動開展機構評估工作,評估各機構如何收集和使用商業(yè)可用信息,包括從數(shù)據(jù)代理那里獲得的信息,并加強對聯(lián)邦機構的指導。三是制定實施指導方針,以評估人工智能技術中使用到的隱私保護技術的有效性。

在此基礎上,2024年4月,美國國家安全局發(fā)布了《安全部署人工智能系統(tǒng):部署安全、彈性人工智能系統(tǒng)的最佳實踐》[5],該實踐建議采取強密碼策略、內(nèi)部網(wǎng)絡分區(qū)、訪問控制和加密。另外,還可以使用數(shù)據(jù)偽裝等方法來混淆數(shù)據(jù),使得攻擊者無法對數(shù)據(jù)進行分析從而防止針對人工智能系統(tǒng)中的數(shù)據(jù)進行外部或內(nèi)部攻擊。

此外,美國斯坦福大學也在同一時期發(fā)布了《反思人工智能時代的隱私問題——針對“以數(shù)據(jù)為中心”世界的政策建議》[6]白皮書,該白皮書談到了3項人工智能數(shù)據(jù)安全保護措施。一是進一步調(diào)整數(shù)據(jù)收集規(guī)則,將數(shù)據(jù)收集的“默認狀態(tài)”從“統(tǒng)一收集”改變?yōu)椤安煌馐占保浞謱崿F(xiàn)數(shù)據(jù)收集最小化。二是持續(xù)關注人工智能下數(shù)據(jù)全生命周期的安全,增強數(shù)據(jù)處理活動的透明度,確保數(shù)據(jù)從收集、存儲到加工、處理等各個環(huán)節(jié)的安全。三是優(yōu)化個人信息的管理模式,持續(xù)更新技術保護手段并建立新的數(shù)據(jù)治理機制。

2.2 英國:包容審慎,溫和規(guī)范人工智能發(fā)展與數(shù)據(jù)流通共享

在人工智能數(shù)據(jù)安全規(guī)制方面,英國政府一方面提出“基于原則”的人工智能治理方法,兼顧“監(jiān)管”與“創(chuàng)新”,為行業(yè)提供了具備確定性、一致性的監(jiān)管方法。另一方面不斷促進數(shù)據(jù)流動與共享,持續(xù)賦能人工智能健康發(fā)展。

在治理方面,2023年3月,英國政府發(fā)布了《促進創(chuàng)新的人工智能監(jiān)管方法》[7],該方法明確提出,人工智能在使用過程中存在隱私和代理風險,具體來說就是家中連接的設備可能會不斷收集數(shù)據(jù),包括對話,這可能會對個人的家庭生活進行近乎完整的描述。訪問這些數(shù)據(jù)的各方主體越多,隱私風險就越大。對此,可以通過利用“適當?shù)耐该鞫群涂山忉屝浴痹瓌t來加強用戶和監(jiān)管人員對于人工智能系統(tǒng)實際運行情況的了解,從而解決相應的隱私風險。

在促進數(shù)據(jù)流通共享方面,2023年12月,英國《數(shù)據(jù)保護和數(shù)字信息法案》[8]在上議院進行了二讀,該法案提到,要減少數(shù)據(jù)流動的障礙,并與提供足夠數(shù)據(jù)保護能力水平的國家(如美國、阿聯(lián)酋等)建立“數(shù)據(jù)橋梁”,促進數(shù)據(jù)流通,從而從側(cè)面間接推動人工智能的發(fā)展。

在技術方面,2022年9月7日,英國信息專員辦公室發(fā)布了《匿名化、假名化及隱私增強技術指南草案》,介紹了隱私增強技術的基本概念、傳統(tǒng)隱私增強技術和新型隱私增強技術的類型定義和應用場景,并通過3項具體場景給出了隱私增強技術的應用指南。

2.3 歐盟:嚴格規(guī)制,有效防范人工智能數(shù)據(jù)安全風險

歐盟在人工智能數(shù)據(jù)安全規(guī)制方面保持了一貫的強勢姿態(tài),通過禁止或限制高風險應用來監(jiān)管人工智能,從而解決或緩解正在面臨的數(shù)據(jù)安全風險。2024年5月,歐洲理事會正式批準《人工智能法案》[9]。作為專門針對人工智能的綜合性立法,該法案明確提出了3項保護人權和隱私的具體措施。一是透明度和可解釋性。要求人工智能系統(tǒng)的開發(fā)者提供關于算法工作原理的足夠信息,確保用戶和系統(tǒng)之間的互動是透明的。這一舉措有助于用戶理解系統(tǒng)的決策過程,從而避免因為不可預測的行為而侵犯人權。二是數(shù)據(jù)保護。強化了數(shù)據(jù)保護要求,包括對個人數(shù)據(jù)的收集、處理和使用進行嚴格監(jiān)管。開發(fā)者必須遵循數(shù)據(jù)最小化原則,只收集完成任務所必需的數(shù)據(jù),并采取措施保護數(shù)據(jù)的機密性、完整性和可用性。三是禁止濫用。明確禁止利用人工智能系統(tǒng)侵犯人權和隱私的行為,如歧視、侵犯隱私、操縱個人數(shù)據(jù)等。違反者將面臨嚴厲的法律制裁。

除此之外,《通用數(shù)據(jù)保護條例》《算法問責及透明度監(jiān)管框架》以及《數(shù)字服務法案》等已經(jīng)頒布和生效的法律規(guī)范也不同程度涉及了算法解釋權的設立、算法透明度和可解釋性的監(jiān)管以及算法透明審計等內(nèi)容,進一步提升了人工智能數(shù)據(jù)安全。

2.4 新加坡:靈活開放,明確人工智能數(shù)據(jù)安全原則和方向

新加坡政府對人工智能發(fā)展的監(jiān)管始終秉持開放和學習的態(tài)度。2018年,新加坡金融管理局發(fā)布了《促進新加坡金融業(yè)公平、道德、可問責和透明地使用人工智能和數(shù)據(jù)分析的原則》[10],對金融機構合理、準確使用人工智能和數(shù)據(jù)分析工具并建立有效的問責機制等進行指引。

2023年12月,新加坡發(fā)布了《國家人工智能戰(zhàn)略2.0》[11],明確提出在合成數(shù)據(jù)生成、數(shù)據(jù)注釋、聯(lián)邦學習和同態(tài)加密等領域加強隱私增強技術的研發(fā),并且明確將為企業(yè)和個人提供安全工具包,以應對人工智能安全風險。

2024年3月,新加坡個人數(shù)據(jù)保護委員會發(fā)布了《關于在人工智能推薦和決策系統(tǒng)中使用個人數(shù)據(jù)的咨詢指南》[12]。該指南明確了人工智能系統(tǒng)在數(shù)據(jù)收集和準備、模型開發(fā)和部署等環(huán)節(jié)對個人信息的保護要求,明確數(shù)據(jù)收集最小化、數(shù)據(jù)匿名化等注意事項,同時給予了相關服務提供商最佳案例指導,為實踐工作有序開展提供參考。

3 對我國的啟示及借鑒

為充分解決人工智能數(shù)據(jù)安全風險,促進人工智能技術健康發(fā)展,要從強化頂層設計、強化安全監(jiān)管、加快技術創(chuàng)新等方面著手,構建全方位、多元化的解決方案。

3.1 強化頂層設計

全面的頂層設計是支撐人工智能數(shù)據(jù)安全的基礎。目前,國內(nèi)針對算法和生成式人工智能已經(jīng)出臺了《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》等法律規(guī)范,明確提出了人工智能服務提供者應當建立數(shù)據(jù)安全和個人信息保護管理制度并采取技術措施,實施算法備案、分類分級管理等。面對人工智能數(shù)據(jù)安全監(jiān)管的頂層設計已初步構建,但與美歐等發(fā)達國家和地區(qū)覆蓋多行業(yè)多領域的監(jiān)管策略相比,仍存在重點行業(yè)重點領域頂層設計缺失等問題。為進一步強化人工智能數(shù)據(jù)安全頂層設計,建議盡快制定醫(yī)療、教育、通信、新能源、智能網(wǎng)聯(lián)汽車等人工智能技術普遍應用的重點行業(yè)重點領域人工智能數(shù)據(jù)安全規(guī)范指引,合理擴大監(jiān)管范圍,進一步明確相關行業(yè)主體在人工智能數(shù)據(jù)安全方面的責任和義務,規(guī)范技術應用和管理措施,確定違規(guī)罰則,確保相關行業(yè)人工智能數(shù)據(jù)安全。

3.2 加強實踐指引

明晰的實踐指引是確保人工智能數(shù)據(jù)安全的關鍵核心。近年來,歐美等發(fā)達國家和地區(qū)均發(fā)布了人工智能的實踐或?qū)嵺`指引,用以引導行業(yè)企業(yè)合理處理人工智能數(shù)據(jù)安全風險,提升安全能力。目前為止,國內(nèi)針對人工智能數(shù)據(jù)安全的實踐指引較為缺乏,企業(yè)經(jīng)常面臨“如何做”“做到什么程度”的困惑。為解決上述問題,一方面,建議重點行業(yè)重點領域適時發(fā)布人工智能數(shù)據(jù)安全行業(yè)實踐指引,明確本行業(yè)本領域人工智能數(shù)據(jù)安全防護重點難點,指導企業(yè)建立健全人工智能數(shù)據(jù)安全技術和管理體系,幫助企業(yè)快速有效處理數(shù)據(jù)安全風險。另一方面,建議適時開展行業(yè)人工智能數(shù)據(jù)安全典型實踐遴選工作,充分挖掘典型經(jīng)驗做法,樹立安全防護標桿,有效促進相關從業(yè)人員切實提升數(shù)據(jù)安全防護能力。

3.3 加快技術創(chuàng)新

有效的安全技術手段是實現(xiàn)人工智能數(shù)據(jù)安全的重要保障。英國、新加坡、歐盟等國家和地區(qū)均提出了加強安全多方計算、聯(lián)邦學習等隱私增強技術的研究和應用,以應對人工智能數(shù)據(jù)安全風險,加強數(shù)據(jù)安全防護。目前國內(nèi)在類似技術的研究和應用方面仍處在起步階段,相關技術發(fā)展時間較短,與國外相比仍有一定差距。因此,應當盡快推動隱私計算、合成數(shù)據(jù)生成、數(shù)據(jù)質(zhì)量管理等與人工智能數(shù)據(jù)安全緊密相關的前沿技術穩(wěn)定發(fā)展,明晰技術應用范式,進一步優(yōu)化技術架構,提升技術性能和效率。推動相關技術在重點行業(yè)應用,引導相關技術落地實踐。另外,應當進一步探索和開發(fā)人工智能數(shù)據(jù)安全保障框架,明確數(shù)據(jù)安全保障機制、流程和達到的效果,進一步指導安全技術應用實施。

4 結(jié)束語

人工智能作為新興領域正處在快速發(fā)展時期,對于社會生活產(chǎn)生了顯著影響。例如,ChatGPT、文心一言等生成式人工智能不僅深度賦能政務、金融、交通、購物等生活的方方面面,成為日常生活的得力助手,并且有力推動了數(shù)據(jù)、算力、算網(wǎng)等深度融合,賦能新質(zhì)生產(chǎn)力的發(fā)展。然而,人工智能技術的廣泛應用所帶來的數(shù)據(jù)泄露、被盜用、被篡改等問題也日益嚴重。我國作為人工智能和數(shù)據(jù)安全領域的先行國家,要始終秉持既嚴肅認真又審慎包容的態(tài)度,發(fā)揮相關優(yōu)勢,在頂層設計、實踐指引、技術創(chuàng)新等方面不斷發(fā)力,有效提升人工智能數(shù)據(jù)安全保護能力,更好推動社會高質(zhì)量發(fā)展。

Foreign artificial intelligence data security regulation and enlightenment to China

GUAN Weidong

(Security Research Institute, China Academy of Information and Communications Technology, Beijing 100191, China)

Abstract: With the extensive application and continuous development of artificial intelligence technology, the data security risks caused by it are increasing. By summarizing security risks such as data leakage, excessive data collection, lack of transparency of model algorithms and data vulnerability in the application of artificial intelligence, this paper reviews and analyzes the practical experience of the United States, the United Kingdom, the European Union and Singapore in data security regulation activities. Comprehensive and diversified development paths such as strengthening top-level design, strengthening practical guidance and accelerating technological innovation are proposed to further improve the ability of artificial intelligence data security protection.

Keywords: artificial intelligence; data security; regulation; practical experience; development path

本文刊于《信息通信技術與政策》2024年 第8期

聲明:本文來自信息通信技術與政策,稿件和圖片版權均歸原作者所有。所涉觀點不代表東方安全立場,轉(zhuǎn)載目的在于傳遞更多信息。如有侵權,請聯(lián)系rhliu@skdlabs.com,我們將及時按原作者或權利人的意愿予以更正。

上一篇:卡西歐遭遇災難式勒索攻擊:系統(tǒng)癱瘓、交付延遲、財報推遲

下一篇:四家上市公司因網(wǎng)絡安全信披違規(guī)被罰5000萬元